Affichage des articles dont le libellé est pages clés. Afficher tous les articles
Affichage des articles dont le libellé est pages clés. Afficher tous les articles

lundi 25 janvier 2010

Marché de la recherche sur Internet, multiplié par 4 en 4 ans !


Une progression exponentielle :

1. 400 milliards de requêtes en 2006
2. 800 milliards de requêtes en 2008
3. 1 600 milliards de requêtes en 2010...

* * *

Dans le sillage du précédent billet sur les chercheurs du Web de 3e génération, je découvre ces stats de Comscore via Olivier Andrieu.

Or 130 milliards de requêtes faites dans le monde sur un seul mois (décembre 2009), ça nous donne 420 milliards de requêtes sur un trimestre, soit autant que pour toute l'année 2006 !!!

Et si le même rythme se poursuit, au 31/12/2010 nous en serons donc à 1 600 milliards de requêtes sur l'année !

Faramineux ! Déjà, c'est plutôt une bonne nouvelle pour les référenceurs (voir mon blogroll), parce que même si la concurrence augmente pour bien se positionner dans les pages de résultats, ça veut dire aussi 4 fois plus de chances d'être trouvé !

Bonne progression de la France à 5,4 milliards de requêtes (+61% vs. 2008), ce qui doit signifier pas loin du double en nombre de requêtes sur tout le marché francophone, et doit représenter entre 6 et 8% du marché mondial si l'on s'en tient à ces chiffres (en me basant sur 4% pour la France, j'imagine un marché francophone entre 50 et 100% supérieur).

Quant à Google, qui continue de s'accaparer 67% de l'ensemble, superlatif, comme toujours : j'aimerais bien savoir ce que ça donne aujourd'hui en termes de pages vues par jour sur le plus grand réseau de publicité contextuelle au monde. ! Et en termes de données collectées, inimaginable...

Donc indépendamment d'un retrait ou non de la Chine, Google a encore de beaux jours devant lui !


Partager sur Facebook

, , , , , , , , , , , , ,

jeudi 21 janvier 2010

Les chercheurs du Web de 3ème génération


L'ami Laurent, un vieux de la vieille du SEO, nous a demandé, à d'autres blogueurs (voir les liens en fin de billet) et moi, de nous exprimer sur l'avenir du search en nous basant sur l'étude “Search of the future” publiée en décembre dernier par Directpanel, sous-titrée : le moteur de recherche idéal vu par les internautes.

La question me suggère de citer en préambule une série de trois billets écrits il y a 3 ans, inspirés par Gord Hotchkiss, Président & CEO d'Enquiro Search Solutions, Inc., et respectivement intitulés :
  1. Search Engine Results 2010
  2. Les moteurs de recherche innovent, pourquoi les marketers Web n’en font-ils pas autant ?
  3. Moteurs de recherche 2010
Dans ce dernier, je terminais ainsi la série :
La conclusion de ce qui précède est qu'il faut donc penser en termes de multipositionnement, non plus simplement sur le texte mais sur tous les éléments du palimptexte, une réalité qui n'a jamais existé jusqu'à présent, et dont nous avons encore bien des difficultés à appréhender toutes les implications pour notre présence Internet...

Ce n'est plus de simple écriture Web qu'il s'agit, mais plutôt d'ingénierie "scripturale" (linguistique, sémantique, technique, etc.). Interactive, et donc réactive. Adaptative. Selon les buts, les retours d'information, les événements, les destinataires, etc. Sans parler de localisation...

(...) Pour conclure, je vous laisse avec cette question : où sera positionné votre site sur la page de résultats de Google en 2010 (ce n'est qu'une projection, mais on comparera dans trois ans...) ?
Et de nous proposer une hypothèse de pages de résultats plutôt futuriste, même s'il est clair que certaines des idées exprimées sont aujourd'hui réalité.


Donc après une première décennie 1990-2000 qui a consacré les débuts d'Internet comme phénomène mondial, à la fois culturel, socio-économique et même politique, et une deuxième décennie 2000-2010 de meilleure appréhension et de maturité du phénomène (j'imagine qu'aujourd'hui plus personne ne songerait à parler d'Internet comme d'une mode...), voici qu'une troisième génération d'internautes va devoir se mesurer avec les prochains bouleversements à venir sur la décennie 2010-2020 : Et que font les internautes dans cet incroyable fouillis planétaire pour s'y retrouver ? Ils cherchent ! Ils interrogent leurs réseaux sociaux, s'informent en temps réel sur leurs flux et sur Twitter, mais surtout ils questionnent les moteurs, point de passage obligé pour accéder aux richesses inépuisables du Web.

Or il y a dans l'étude Directpanel une diapo qui m'intéresse plus particulièrement, elle pose la question suivante : « Dans quelle mesure pensez-vous que les moteurs de recherche web pourraient s'améliorer dans les 10 années à venir ? »


Pour 1% des sondés, pas d'améliorations à attendre, un peu pour 33%, beaucoup pour 48%, et une évolution radicale pour 19%.

Ce qui veut dire que pour près de 100% des internautes, les améliorations potentielles côté moteur seront nombreuses sur la décennie 2010-2020, un vrai plébiscite !

Il y a cependant une donnée manquante, selon moi, dans cette étude, à rechercher non plus côté moteur, mais côté internaute. À savoir qu'en général les gens cherchent n'importe comment, une légèreté le plus souvent compensée par l'incroyable pertinence des résultats retournés. Pas toujours, je sais, mais il n'empêche...

Pour faire un parallèle, c'est la même histoire que ceux qui n'utilisent leur ordinateur qu'à 10% de ses capacités. Idem avec la recherche sur le Web, où la maîtrise a minima de la syntaxe moteur permet de circonscrire les résultats en minimisant le bruit autant que le silence.

Car après tout l'alphabétisation "moteurs" n'implique qu'un nombre fort limité de commandes, qu'on peut compter sur les doigts des deux mains (site:, link:, filetype:, inurl: / allinurl:, intitle: / allintitle:, intext: / allintext:, cache:, etc.), mais dont la pertinence des résultats fournis évite souvent l'allongement moyen des requêtes.

Cela permet ainsi de résoudre facilement deux des fonctionnalités les plus impactantes sur la vie quotidienne, selon l'étude, à savoir "m'aider à identifier parmi tous les résultats ceux qui sont les plus fiables" et "filtrer et ne pas afficher les résultats faux, périmés ou non pertinents".

Quant aux autres, telles que "permettre de rechercher dans les souvenirs stockés dans ma mémoire" (à moins qu'il ne s'agisse de la mémoire de mon ordi...), "comprendre des requêtes mentales / lire dans mes pensées" ou "fournir instantanément des informations sur une personne ou un objet que je touche", pour moi cela s'apparente moins à de la recherche Web qu'à de la science fiction.

Donc pour l'instant je me contenterai de choisir la syntaxe et les termes appropriés dans mes requêtes, car après tout, les bons mots clés restent ceux qui ouvrent les bonnes portes dans le labyrinthe Internet.

Et il est évident que de plus en plus, la page de résultats sera définie autant par l'utilisateur que par le moteur ! Une dimension qui, selon moi, manque à cette étude.

Dont une prochaine mouture devrait s'intéresser non plus à ce que les internautes s'attendent à trouver, mais à comment ils entendent le chercher. Je suis sûr qu'on aurait des surprises...




Liens connexes


Sylvain Richard
http://blog.axe-net.fr/enquete-google-sur-la-recherche-du-futur/

Marie Pourreyron
http://www.pink-seo.com/blog/futur-search-461

Léo Ludwig
http://fr.propulsr.com/moteurs-de-recherche/google-vision-futur/

Aurélien Bardon
http://oseox.fr/blog/index.php/786-moteur-recherche

Renaud Joly
http://www.renaud-joly.fr/index.php/post/2010/google-recherche-internautes

Antoine Leroux
http://www.antoineleroux.fr/google/futur-moteur-de-recherche/697

Aymeric Jacquet
http://ajblog.fr/referencement/802-recherche-ideale.html

Laurent Bourrelly
http://www.laurentbourrelly.com/blog/531.php

Sébastien Vallery
http://www.seoplayer.com/google/quel-futur-pour-la-recherche-d-information-en-ligne.html

Michel de Guilhermier
http://micheldeguilhermier.typepad.com/mdegblog/2010/01/google.html

David Degrelle
http://www.1ere-position.fr/blog/etude-google-le-moteur-de-recherche-du-futur

Olivier Andrieu
http://blog.abondance.com/2010/01/google-et-le-moteur-de-recherche-ideal_21.html

Olivier Duffez
http://www.webrankinfo.com/actualites/201001-search-future.htm

Gonzague Dambricourt
http://gonzague.me/futur-search-selon-google

Partager sur Facebook

P.S. La morale de l'histoire est la suivante : pour trouver des résultats pertinents, apprendre à bien chercher. Il y a des choses qu'on ne peut déléguer, l'apprentissage d'une langue, par exemple. Idem pour celui de la syntaxe de recherche (cf. opérateurs, via Aymeric). Google est comme le moteur d'une Ferrari de race, rien ne me servira d'en avoir une si je ne sais pas conduire !

, , , , , , , , , , , , ,

jeudi 8 janvier 2009

Noms de domaine et parking : Parking 2.0 vs. Parking 1.0

Noms de domaine et parking : Parking 2.0 vs. Parking 1.0

Parking 1.0 : déclin d'un modèle économique qui s'essouffle
Parking 2.0 : évolution du parking et nouveaux modèles économiques

* * *

Parking 1.0 : déclin d'un modèle économique qui s'essouffle

Il y a longtemps que je voulais faire un billet sur la nature et l'évolution du parking. En France, les gens ont tendance à liquider ça d'un revers de main, en criant bien haut et fort comme quoi c'est indécent, et ceci et cela. Et puis le parking c'est du cybersquatting, et du typosquatting, et du phishing, et ceci et cela.

Mais point de discussions véritablement sérieuses, à part sur Blogodomaines, mais c'est normal, me direz-vous, puisqu'il est partie prenante. Il n'empêche, ce n'est pas parce qu'on est partie prenante qu'on écrit forcément des choses intelligentes comme l'ami Rémy.

Qui nous fournit d'ailleurs une bonne illustration de comment fonctionnent actuellement le parking et le modèle économique qu'il y a derrière :


Un modèle économique aujourd'hui fortement en crise, nous allons voir pourquoi. Mais en tout état de cause, continuer à l'infini de faire l'impasse sur une réalité économique faite d'une vingtaine de millions de sites témoigne d'une absence totale de clairvoyance...

Tout d'abord je vais laisser de côté l'internaute et l'annonceur, même s'ils font clairement partie intégrante de l'écosystème "parking", pour me concentrer sur les trois types d'acteurs généralement impliqués :
  1. la régie publicitaire
  2. la plateforme de parking
  3. le titulaire du nom de domaine
1. La régie sert les pubs, c'est-à-dire qu'elle fournit les liens contextuels et/ou, plus rarement les bannières ;
2. la plateforme de parking héberge ces liens sur une page Web, vers laquelle pointe le nom de domaine ;
3. les titulaires de noms de domaine en parking ont un profil extrêmement segmenté, allant du simple particulier avec un seul ou quelques noms parqués, aux registrars du genre Moniker ou Fabulous & Co. qui peuvent gérer directement ou indirectement plusieurs millions de noms, en passant par des portefeuilles intermédiaires de quelques centaines à des milliers de noms, ou plus importants en quantité (Frank Schilling) (plus de 100 000 domaines) et/ou en valeur (Rick Schwartz) (+5 000, dont Candy.com, Properties.com, Tradeshows.com, Cheating.com, etc.).

Les registrars comme GoDaddy ou Domainsite (pour ne citer qu'eux) sont des cas à part, même s'ils ont en commun d'exploiter le parking en partenariat avec Google.

Or jusqu'à présent, la logique économique consistait essentiellement à cibler la pertinence des liens contextuels en fonction du nom de domaine et de son potentiel en navigation directe.

Mais bon, comme je l'expliquais ici, il n'y a qu'un seul nasa.com, ou meteo.com..., et par conséquent cette logique a trouvé ses limites, notamment à cause de la convergence de plusieurs facteurs :
  • la pratique de la navigation directe, dont les revenus étaient généralement estimés à 10-15% de l'ensemble des revenus générés par la recherche payante (chiffre encore à vérifier, si quelqu'un a des infos), est en perte de vitesse constante, au profit de la recherche directement dans les moteurs de recherche, un concept encore affiné avec la onebox de Chrome ;
  • la désaffection des internautes, de plus en plus las d'atterrir sur des pages poubelles truffées de liens publicitaires qui n'apportent désormais plus aucune valeur ajoutée à leur "expérience utilisateur" (sans parler des craintes implicites du genre : est-ce que je ne vais pas attraper un virus si je clique sur un de ces liens, etc.) ;
  • les grosses régies qui étaient les principaux pourvoyeurs de fonds des parkings - j'ai nommé Google et Yahoo! - changent lentement mais sûrement leur fusil d'épaule, Google en ouvrant à tous son programme AdSense for Domains, en rupture totale comme à son habitude, et Yahoo! en faisant n'importe quoi, comme à son habitude...
Résultat des courses : une baisse considérable des gains par clic (EPC - Earnings per click).

Quant aux prestataires de parking, comme l'explique Rémy, leur but ultime consistait à « agréger le plus de trafic possible pour pouvoir négocier des contrats plus intéressants avec les fournisseurs de liens publicitaires. Et ce pour pouvoir à (leur) tour offrir des taux de rémunérations toujours plus compétitifs à (leurs) clients. Et agréger encore plus de trafic (effet boule de neige) », voire à « se lancer eux-mêmes sur l’enregistrement et le rachat de noms de domaine pour s’assurer une taille critique ».

Donc maintenant que toutes les logiques qui ont assuré le succès de l'ère Parking 1.0 sont définitivement cassées, il serait peut-être temps de passer à l'ère Parking 2.0. Voyons comment. [Début]

* * *

Parking 2.0 : évolution du parking et nouveaux modèles économiques

La première réflexion est qu'une constante demeure entre les concepts de Parking 1.0 et Parking 2.0, à savoir que le parking reste un fort vecteur publicitaire, un formidable canal promotionnel pour peu qu'il soit ciblé et pertinent.

Les annonceurs et les régies ont accepté le parking tant qu'ils en jugeaient le trafic qualifié, traditionnellement avec des taux de conversion des pages parking jugés supérieurs à ceux des clics sur les moteurs de recherche (4,23% vs. 2,3%, selon une étude WebSideStory - Omniture aujourd'hui - qui a fait date).

Pour autant, le deuxième constat, c'est que l'ensemble de l'écosystème Parking 1.0 a été construit autour d'un grand absent : le CONTENU !

Or même si le parking est souvent une situation intermédiaire, qui permet de générer des revenus dans l'attente d'une revente, ça n'est pas une excuse pour faire n'importe quoi entre-temps. D'où la confusion de plus en plus justifiée entre les pages parking et les MFA (Made for Adsense), vu que pendant longtemps Google n'a pas vraiment fait grand chose pour corriger ses incohérences...

D'où également la connotation de plus en plus négative du parking, associé à du parasitage pur et simple par une grande partie du public francophone. L'approche des anglo-saxons est différente, comme souvent sur Internet, ce qui n'empêche que les internautes se retrouvant sur ces pages sont de moins en moins considérés "qualifiés" par les annonceurs, qui font également l'amalgame avec la fraude aux clics.

Une situation critique qui demande un renversement de tendance net. Comment ? En inversant la traîne, tout simplement, c'est-à-dire en passant de la longue traîne à la grande traîne de l'UGC :
  1. en insufflant du contenu dans le parking, et si possible du contenu pertinent, de qualité ;
  2. en rémunérant enfin les créateurs de ce contenu à travers un partage des revenus plus favorable.
Fini les vieux critères de partage, tout le monde y trouverait son compte. Des internautes aux annonceurs...

D'où une nouvelle définition du parking, qui m'a été soufflée par Jean-Philippe Hermand : crédibiliser les liens publicitaires par la pertinence du contenu.

On constate d'ailleurs un désir de diversification de plus en plus poussé chez des acteurs établis du parking, qui commencent à tourner autour de ces concepts, que ce soit celui de la pertinence via la sémantique (approche de SEDO qui investit dans Domainsbot), ou celui du contenu via le développement de véritables minisites (démarche de AEIOU, Kwikcontent, WhyPark ou Parking Revolution, entre autres).

Mon idée est différente. Pour moi, le bon mix consisterait à alimenter automatiquement les pages parking en flux RSS pertinents par rapport aux noms de domaine, sur le modèle Wikio de catégorisation thématique et de création de pages à la volée (ce que fait également fort bien Webjam).

Imaginez que chaque blogueur choisisse en opt-in que ses flux soient repris sur des parkings, naturellement contre un partage de revenus équitable entre les différentes composantes : la régie, l'agrégateur-distributeur de flux, les créateurs des contenus syndiqués et les titulaires des noms de domaine !

Coup double : une source de monétisation supplémentaire pour les créateurs de contenu d'une part, un flux ininterrompu d'UGC alimentant en automatique des pages parking complètement révolutionnées de l'autre.

Les spécialistes de l'AdSense pourraient objecter que si le contenu est trop pertinent, les internautes cliqueront moins sur les pubs. Soit. Mais de toutes façons, avec les formules actuelles, ils ne cliquent plus dessus de toute façon. À tel point que tout le monde - des annonceurs aux régies en passant par les utilisateurs - ne demande plus qu'une chose : de la qualité !

C'est le concept de smart pricing chez Google :
Ajoutez toujours plus de contenu pertinent à votre site et maintenez-le à jour afin de conserver l’intérêt de vos visiteurs. Si vos visiteurs sont intéressés par vos pages et qu’ils cliquent sur l’une de vos annonces, ils effectueront probablement une action sur le site de l’annonceur partenaire et votre taux de conversion s’en verra augmenter, de même que vos revenus. Du contenu de qualité se traduit souvent par une expérience positive pour vos visiteurs et vos annonceurs.
Donc s'il est vrai qu'il n'y a plus de qualité sans contenu pertinent fréquemment réactualisé, il est tout aussi vrai que personne n'a encore trouvé le moyen d'alimenter en temps réel des centaines de milliers - voire des millions - de sites parking en contenu de qualité.

Ce que pourrait assez facilement faire une plateforme comme Wikio, j'en ai déjà parlé avec Pierre Chappaz il y a plusieurs mois, mais il ne m'a pas semblé convaincu. D'où ma décision de partager mes idées avec la "communauté", juste pour tester le retour et collecter vos critiques et suggestions.

Au départ, me semble-t-il, c'était un peu l'idée de Blogbang, qui a pourtant réussi à casser dans la foulée une dynamique particulièrement porteuse, en merdant totalement le back-office après un démarrage en trombe. Dommage ! Et difficile à rattraper. Même si avoir Publicis derrière, ça peut aider...

Quant à cette (r)évolution des pages parking, il faut qu'elle n'ait pas seulement lieu sur le fond (le contenu), mais aussi sur la forme, en allant plus loin que la logique Google (depuis longtemps, et plus que jamais, dans le business...) :


En calquant la conception de ces pages sur le modèle des (r)évolutions qui attendent les traditionnelles pages de résultats, par exemple, encore « aujourd'hui TRÈS largement sous-exploitées, en termes de présence optimisée :
  • par les images
  • par les vidéos
  • par les cartographies
  • par les médias sociaux
  • par les widgets
  • multiforme et multiformats (blogs, sites, pages de réseaux sociaux, sites de partages de favoris, de documents...)
  • par la publicité
Etc.
»

Mais ce sera un autre débat ... dont j'espère qu'il aura lieu ! [Début]



Partager sur Facebook

, , , , , , , , , , , , , , , ,

vendredi 12 décembre 2008

The search page is defined by...

La page de résultats est définie par...

Par qui ? Par l'utilisateur ou par le moteur ?

Par les deux dirais-je, par les intentions de l'un mixées aux algorithmes de l'autre. Dans l'exemple donné sur son blog :


Olivier Andrieu remarque :
l'espace réellement visible (...) est entièrement accaparé par des liens issus de "la maison Google"...
Oui et non : car pour neuf liens sponsorisés (trois en position "premium" et six dans la barre latérale), la liste des 10 liens issus de Google Maps est bien à mettre au compte des résultats organiques. Google le précise clairement :
L'inclusion dans Google Maps et dans les résultats de recherche du site Google est gratuite. Si vous désirez ajouter votre entreprise à Google Maps, suivez les directives ci-dessous. Votre fiche s'affichera automatiquement dans les premiers résultats de recherche sur le site Google lorsque nos algorithmes la jugeront pertinente par rapport à la requête effectuée. Nous n'avons pas d'informations supplémentaires à vous communiquer au sujet du classement de votre fiche.
Donc je trouve arbitraire cette affirmation :
Google everywhere... et aucune place pour les autres si ce n'est un demi-résultat peu visible en bas d'écran, à peine au dessus de la "ligne de flottaison"... Bien sûr, on objectera - avec raison - que sur un écran plus grand, les résultats organiques (...) apparaissent.
et je m'étonne qu'Olivier Andrieu, fin référenceur, fasse naître une telle confusion dans l'esprit de son lectorat, en donnant à croire que ces 10 liens "Google Maps" ne seraient pas issus de l'index "organique".

D'autant que, personnellement, tels quels, je les trouve encore plus visibles que les liens sponsorisés.

Sans compter que la métaphore du triangle d'or invoquée par Olivier Andrieu comme seul "espace réellement visible", ne fonctionne pas dans le cas présent, comme l'ont démontré les études de ... Gord Hotchkiss, toujours lui :
L'attention de l'œil étant d'abord capturée par l'image (encore faut-il qu'elle remplisse le critère de la pertinence par rapport à la recherche de l'internaute), cela déplace le "centre de gravité" du point d'entrée, c'est-à-dire là où se pose le regard en premier, d'où il commence ensuite à balayer la page.
En fait, c'est très exactement ce qui se passe avec la carto de Google Maps de la capture ci-dessus, puisque l'œil, fortement attiré par l'image, va d'abord naturellement se poser sur les liens à droite de l'image (et qui plus est au centre de la page).

Donc que dire là encore, sinon que le critère de la pertinence par rapport à la recherche de l'internaute est ici pleinement rempli...

Dans le même billet il était d'ailleurs question des révolutions qui attendent la traditionnelle page de résultats, tant sur la forme que sur le fond :
  • sur la forme, avec une présentation des liens non plus linéraire mais intégrant, ou, pour mieux dire, amalgamant (blending) photos, vidéos, cartes géographiques, commentaires, etc. (côté pub on peut très bien envisager la présence de widgets interactifs en plus des habituels liens contextuels, d'autres formats riches...) ;
  • sur le fond, avec l'émergence de la recherche universelle (celle qui va puiser dans les différents index, ou inventaires), de la personnalisation (celle qui tient compte de vos préférences et de votre profil) et de la verticalisation (celle qui décide des thématiques auxquelles appliquer personnalisation et recherche universelle).
En fait, si je devais hiérarchiser, je dirais que c'est cette dernière qui passe en premier et subordonne les deux autres, avec par ordre d'importance :
  1. Verticalisation
  2. Personnalisation
  3. Recherche universelle
Or la personnalisation est fortement mise en avant par Google, Marissa Meyer le dit depuis un moment déjà et l'a encore répété au Web 08 :
  • search needs to be more dynamic and more personalised
  • talks about personalised search... usual caveat about being careful with users' data
  • "we don't know what will fuel personalised search, but we think it will be one of the traits of the successful search tools of the future"
  • "another part of personalisation is the social aspect"
Voilà pourquoi je trouve l'analyse d'Hotchkiss s'interrogeant sur Who Owns The Search Page? nettement plus propice à la réflexion (ne se demandait-il pas déjà l'année dernière, vu la façon dont les moteurs de recherche innovent, pourquoi les Web marketers n’en font-ils pas autant ?) : une réflexion que devraient mener tous ceux qui ont des services à vendre sur Internet, puisque de plus en plus ces trois composantes de la recherche - verticalisation, personnalisation et recherche universelle - offrent des alternatives aujourd'hui TRÈS largement sous-exploitées, en termes de présence optimisée :
  • par les images
  • par les vidéos
  • par les cartographies
  • par les médias sociaux
  • par les widgets
  • multiforme et multiformats (blogs, sites, pages de réseaux sociaux, sites de partages de favoris, de documents...)
  • par la publicité
Etc.

Donc en conclusion, la page de résultats est définie par les trois composantes qui la font :
  1. par les requêtes saisies,
  2. par l'imagination et l'inventivité de ceux qui décident de leurs stratégies de liens, de trafic, de référencement / positionnement, de mots clés, de pages clés, de noms de domaine, etc.,
  3. et par la pertinence des algorithmes...
Comme quoi il reste de la marge si on veut bien s'en donner la peine, et ce n'est pas encore réservé uniquement à ceux qui paient le plus ! Quant à savoir où va la recherche...


Partager sur Facebook

P.S. Réponse à TomHtml, qui me dit en commentaire :
Parmi les résultats de Google Maps (et par conséquent de sa onebox), il y a des pub "adwords", c'est à dire que des annonceurs paient pour que le marqueur positionnant leur entreprise apparaisse toujours sur la carte quand on fait une recherche à proximité.
C'est une minorité, mais elle existe... Donc Olivier a en partie raison puisque ces résultats ne sont pas tout à fait naturels.
Depuis le début, Google a toujours mis un point d'honneur, me semble-t-il, à ne jamais induire en erreur ses utilisateurs entre résultats naturels et sponsorisés, ces derniers étant toujours distingués de façon claire et sans équivoque par rapport aux premiers. Voilà pourquoi je dis que dans l'exemple choisi par Olivier Andrieu, les 10 liens issus de Google Maps sont des liens naturels qui compensent autant de liens sponsorisés.

Chose que je vais essayer de démontrer. Si le commentaire de Tom est une probabilité, il y aurait trois hypothèses. Nous aurions en effet, parmi les liens qui jouxtent la carte :
  1. soit 10 liens sponsorisés ;
  2. soit des liens sponsorisés mélangés à des liens naturels ;
  3. soit 10 liens naturels.
1. Dix liens sponsorisés

Non seulement la chose n'est signalée nulle part, mais en plus cela nous donnerait toute la partie de la page au-dessus de la ligne de flottaison, comme dit Olivier, truffée de liens sponsorisés, une vingtaine pour être précis. Inacceptable. Et même impossible. Si Google faisait ça, ce serait le déclin assuré de son utilisation par la masse des internautes. Et si Google voulait scier seul la branche sur laquelle il trône, il n'y aurait pas de meilleure solution !

2. Mix de liens sponsorisés + liens naturels

Idem. Inacceptable sans signaler la chose aux internautes. De plus, à ma connaissance, Google n'a jamais fait ça. J'ai testé la même requête directement dans Google Maps, et l'on voit bien dans la colonne latérale gauche, où s'affiche la liste des hôtels, que les liens commerciaux sont clairement mis en évidence en tête et en pied de colonne. Voir la capture :


On peut d'ailleurs constater que les marqueurs ne sont pas les mêmes entre liens naturels (tous identiques) et liens sponsorisés (personnalisés), différence qui se retrouve sur la carte :


Voilà pourquoi je pense que nous avons au final :

3. Dix liens naturels

Que l'on retrouve d'ailleurs mélangés dans les 20 liens naturels présentés directement sur Google Maps (avec un seul lien d'écart).

, , , , , , , , , , , , ,

jeudi 17 avril 2008

Keywords are nothing without Keypages!

Autrement dit, « Les mots clés ne valent rien s'ils ne sont pas contextualisés dans des pages clés ! » (côté éditeur, car côté annonceur, la problématique est différente)

Préambule

Les mots clés
1. Qu'est-ce qu'un mot clé ?
2. Quelques caractéristiques des mots clés

Les pages clés
1. Qu'est-ce qu'une page clé ?
2. Quelques caractéristiques des pages clés

* * *

Préambule

Depuis l'achat d'Overture en 2004 par Yahoo! le concept des mots clés à fait florès. Or aujourd'hui, l'optimisation des mots clés à elle seule ne suffit plus, vu la concurrence avec le payant, et surtout elle a bien moins d'efficacité si elle est faite en aval.

Traduction : on crée un site sans stratégie bien précise, on met dedans un nombre plus ou moins grand de pages avec du contenu plus ou moins pertinent, et ensuite on pense à quels mots clés utiliser pour le faire connaître.

Or le problème, en procédant de cette manière, c'est qu'on trouvera toujours devant nous une bonne centaine de sites mieux optimisés qui occuperont "naturellement" les 10 premières pages de résultats de Google, Yahoo & Co. ; "naturellement", c'est-à-dire dans les résultats organiques.

Et puis on trouvera aussi devant nous tous les annonceurs dont les liens sponsorisés seront bien en évidence sur ces mêmes mots clés qu'on aura péniblement extraits de nos réflexions a posteriori.

Donc, première règle d'or, les mots clés doivent être définis en amont du process de développement d'un site, ou d'un blog, qui vont être le contenant : un contenant à construire autour du contenu.

Ceci dit, avant d'imaginer la conception d'une page autour d'un mot clé, ou d'un ensemble de mots clés sémantiquement proches, mieux vaut d'abord se demander : 1) qu'est-ce qu'un mot clé ? Et la question corollaire : 2) quelles doivent être ses caractéristiques ? [Début]

* * *

Les mots clés

1. Qu'est-ce qu'un mot clé ?

Techniquement, disons que les mots clés sont des "tags", des étiquettes en bon français, servant à catégoriser vos pages, vos messages, vos recherches.

Jusqu'à présent leur emploi a été plutôt basique, mais il serait temps de passer d'une utilisation par associations (d'idées, de concepts), à une utilisation par intentions, selon cette définition d'Otavo :
Quelles sont les différences entre les mots clés et les intentions ?

Les mots clés sont des catégories, et, en tant que tels, ils ne vous indiquent ni COMMENT ni POURQUOI vous souhaitez utiliser l'information qu'ils étiquettent, mais juste à quelle catégorie elle appartient dans le grand ordonnancement des choses.

Par contre les intentions sont porteuses du POURQUOI et du COMMENT vous souhaitez utiliser l'information.
Une notion déjà évoquée dans mon billet sur Powerset, où j'observais que « les mots clés sont au centre de la reformulation des requêtes, en cartes mentales pour les utilisateurs, en ontologies pour les moteurs. »

En prenant pour exemple le film suivant :


Or puisque les mots clés seuls ne peuvent indiquer ni le COMMENT ni le POURQUOI qui sous-tendent vos intentions, c'est en les contextualisant dans des pages clés que vous allez pouvoir faire d'un simple document contenant des mots clés un document vecteur de votre message, rendu à la fois plus intelligent et plus intelligible, autant pour vos lecteurs que pour les moteurs. [Début]

2. Quelques caractéristiques des mots clés
  • Les mots clés doivent faire sens ! Pris séparément ET collectivement. Une activité ne se définit jamais par UN mot clé seul, mais par DES mots clés, des expressions clés, des cooccurrences, des phrases clés, qui s'inscrivent dans un contexte.
    Dans lequel ils ont une densité (idéalement entre 3% et 7%, sans jamais dépasser les 10%), appliquée à la page qui les accueille.

  • Les mots clés ne sont pas seulement "entrants" mais également "sortants".
    • Entrants : ils amènent du trafic vers vos pages, puisque mis à part la navigation directe et les relais des réseaux sociaux, la plupart des internautes vous rendent visite après avoir saisi des mots clés dans les moteurs.
    • Sortants : ils convoient votre message à l'extérieur, sur les réseaux sociaux, les sites de partage de photos, de liens, de vidéos, de présentations, Technorati, etc.
    Et entrants ou sortants, ce sont des ancres qui matérialisent des liens : pensez aux nuages de mots clés, ces fameux "tag clouds", où tous les termes sont clicables.

  • Les mots clés peuvent également être connotés marque ou non connotés marque (génériques), et doivent s'insérer dans les URL de vos pages et billets (les résultats sont parfois surprenants).
Transposons maintenant ces considérations aux pages clés en nous interrogeant de façon semblable : 1) qu'est-ce qu'une page clé ? 2) quelles doivent être ses caractéristiques ? [Début]

* * *

Les pages clés

1. Qu'est-ce qu'une page clé ?

Une page clé est une landing page, ou page d'atterrissage, où se rencontrent, dans le meilleur des mondes, les attentes de l'auteur et celles du visiteur.

Déjà, si vous cliquez sur les deux liens précédents, que vous les lisez ainsi que toutes les références auxquelles ils renvoient, vous en saurez plus que moi sur la question ! Et c'est en français, une fois n'est pas coutume.

Mon but ici n'est pas tant d'insister sur l'aspect technique, bien qu'il reste primordial, mais plutôt d'encadrer ce concept de page clé dans la réalité du Web aujourd'hui, où chaque page est évaluée, décortiquée et pondérée par les moteurs comme une entité à part entière. Certes rattachée à l'écosystème dont elle fait partie, mais indépendante en termes de poids spécifique et de positionnement.

Pour donner un exemple limpide, certains billets d'Adscriptor sont très bien positionnés, d'autres pas du tout. Idem pour les pages clés... Qui doivent être un mélange d'optimisation, et de rédaction. Comme pour un billet de blog ! [Début]

2. Quelques caractéristiques des pages clés

Dans Booster son blog : mots clés et optimisation, je concluais en observant :
Identifier l'univers lexical de son blog en analysant les cooccurrences de mots clés significatives, puis définir une thématique précise par billet, en optimiser sémantiquement le contenu et intégrer la phrase clé centrale (entre 2 et 5 termes pondérés) dans l'URL.
Il en va de même pour une page clé, que nous pourrions comparer à un billet de blog, sauf que là, l'univers lexical est celui de votre activité, de votre service ou du message à faire passer.

Deuxième règle d'or, une page clé se construit plus qu'elle se rédige, c'est de l'ingénierie linguistique où le paramètre de base peut se résumer par la formule G + 2H + 5W : qui, quoi, où, quand, pourquoi, comment, combien et en première place G = Google.

Car n'oublions jamais que la présence sur Internet n'est rien sans la visibilité, qui découle de votre positionnement dans les moteurs en général, et sur Google en particulier, principal vecteur de trafic aussi bien en Europe qu'aux États-Unis ! [Début]


Partager sur Facebook

P.S. Si vous vous demandez pourquoi j'ai choisi d'intituler ce billet "Keywords are nothing without Keypages!" plutôt que "les mots clés ne valent rien s'ils ne sont pas contextualisés dans des pages clés !", c'est simplement parce que la transformation des titres en URL dans Blogger ne prend pas en compte les caractères accentués, et ça m'énerve. Vivement les IDN... [Début]

, , , , , , , , , , ,