Affichage des articles dont le libellé est référencement. Afficher tous les articles
Affichage des articles dont le libellé est référencement. Afficher tous les articles

lundi 25 janvier 2010

Marché de la recherche sur Internet, multiplié par 4 en 4 ans !


Une progression exponentielle :

1. 400 milliards de requêtes en 2006
2. 800 milliards de requêtes en 2008
3. 1 600 milliards de requêtes en 2010...

* * *

Dans le sillage du précédent billet sur les chercheurs du Web de 3e génération, je découvre ces stats de Comscore via Olivier Andrieu.

Or 130 milliards de requêtes faites dans le monde sur un seul mois (décembre 2009), ça nous donne 420 milliards de requêtes sur un trimestre, soit autant que pour toute l'année 2006 !!!

Et si le même rythme se poursuit, au 31/12/2010 nous en serons donc à 1 600 milliards de requêtes sur l'année !

Faramineux ! Déjà, c'est plutôt une bonne nouvelle pour les référenceurs (voir mon blogroll), parce que même si la concurrence augmente pour bien se positionner dans les pages de résultats, ça veut dire aussi 4 fois plus de chances d'être trouvé !

Bonne progression de la France à 5,4 milliards de requêtes (+61% vs. 2008), ce qui doit signifier pas loin du double en nombre de requêtes sur tout le marché francophone, et doit représenter entre 6 et 8% du marché mondial si l'on s'en tient à ces chiffres (en me basant sur 4% pour la France, j'imagine un marché francophone entre 50 et 100% supérieur).

Quant à Google, qui continue de s'accaparer 67% de l'ensemble, superlatif, comme toujours : j'aimerais bien savoir ce que ça donne aujourd'hui en termes de pages vues par jour sur le plus grand réseau de publicité contextuelle au monde. ! Et en termes de données collectées, inimaginable...

Donc indépendamment d'un retrait ou non de la Chine, Google a encore de beaux jours devant lui !


Partager sur Facebook

, , , , , , , , , , , , ,

jeudi 21 janvier 2010

Les chercheurs du Web de 3ème génération


L'ami Laurent, un vieux de la vieille du SEO, nous a demandé, à d'autres blogueurs (voir les liens en fin de billet) et moi, de nous exprimer sur l'avenir du search en nous basant sur l'étude “Search of the future” publiée en décembre dernier par Directpanel, sous-titrée : le moteur de recherche idéal vu par les internautes.

La question me suggère de citer en préambule une série de trois billets écrits il y a 3 ans, inspirés par Gord Hotchkiss, Président & CEO d'Enquiro Search Solutions, Inc., et respectivement intitulés :
  1. Search Engine Results 2010
  2. Les moteurs de recherche innovent, pourquoi les marketers Web n’en font-ils pas autant ?
  3. Moteurs de recherche 2010
Dans ce dernier, je terminais ainsi la série :
La conclusion de ce qui précède est qu'il faut donc penser en termes de multipositionnement, non plus simplement sur le texte mais sur tous les éléments du palimptexte, une réalité qui n'a jamais existé jusqu'à présent, et dont nous avons encore bien des difficultés à appréhender toutes les implications pour notre présence Internet...

Ce n'est plus de simple écriture Web qu'il s'agit, mais plutôt d'ingénierie "scripturale" (linguistique, sémantique, technique, etc.). Interactive, et donc réactive. Adaptative. Selon les buts, les retours d'information, les événements, les destinataires, etc. Sans parler de localisation...

(...) Pour conclure, je vous laisse avec cette question : où sera positionné votre site sur la page de résultats de Google en 2010 (ce n'est qu'une projection, mais on comparera dans trois ans...) ?
Et de nous proposer une hypothèse de pages de résultats plutôt futuriste, même s'il est clair que certaines des idées exprimées sont aujourd'hui réalité.


Donc après une première décennie 1990-2000 qui a consacré les débuts d'Internet comme phénomène mondial, à la fois culturel, socio-économique et même politique, et une deuxième décennie 2000-2010 de meilleure appréhension et de maturité du phénomène (j'imagine qu'aujourd'hui plus personne ne songerait à parler d'Internet comme d'une mode...), voici qu'une troisième génération d'internautes va devoir se mesurer avec les prochains bouleversements à venir sur la décennie 2010-2020 : Et que font les internautes dans cet incroyable fouillis planétaire pour s'y retrouver ? Ils cherchent ! Ils interrogent leurs réseaux sociaux, s'informent en temps réel sur leurs flux et sur Twitter, mais surtout ils questionnent les moteurs, point de passage obligé pour accéder aux richesses inépuisables du Web.

Or il y a dans l'étude Directpanel une diapo qui m'intéresse plus particulièrement, elle pose la question suivante : « Dans quelle mesure pensez-vous que les moteurs de recherche web pourraient s'améliorer dans les 10 années à venir ? »


Pour 1% des sondés, pas d'améliorations à attendre, un peu pour 33%, beaucoup pour 48%, et une évolution radicale pour 19%.

Ce qui veut dire que pour près de 100% des internautes, les améliorations potentielles côté moteur seront nombreuses sur la décennie 2010-2020, un vrai plébiscite !

Il y a cependant une donnée manquante, selon moi, dans cette étude, à rechercher non plus côté moteur, mais côté internaute. À savoir qu'en général les gens cherchent n'importe comment, une légèreté le plus souvent compensée par l'incroyable pertinence des résultats retournés. Pas toujours, je sais, mais il n'empêche...

Pour faire un parallèle, c'est la même histoire que ceux qui n'utilisent leur ordinateur qu'à 10% de ses capacités. Idem avec la recherche sur le Web, où la maîtrise a minima de la syntaxe moteur permet de circonscrire les résultats en minimisant le bruit autant que le silence.

Car après tout l'alphabétisation "moteurs" n'implique qu'un nombre fort limité de commandes, qu'on peut compter sur les doigts des deux mains (site:, link:, filetype:, inurl: / allinurl:, intitle: / allintitle:, intext: / allintext:, cache:, etc.), mais dont la pertinence des résultats fournis évite souvent l'allongement moyen des requêtes.

Cela permet ainsi de résoudre facilement deux des fonctionnalités les plus impactantes sur la vie quotidienne, selon l'étude, à savoir "m'aider à identifier parmi tous les résultats ceux qui sont les plus fiables" et "filtrer et ne pas afficher les résultats faux, périmés ou non pertinents".

Quant aux autres, telles que "permettre de rechercher dans les souvenirs stockés dans ma mémoire" (à moins qu'il ne s'agisse de la mémoire de mon ordi...), "comprendre des requêtes mentales / lire dans mes pensées" ou "fournir instantanément des informations sur une personne ou un objet que je touche", pour moi cela s'apparente moins à de la recherche Web qu'à de la science fiction.

Donc pour l'instant je me contenterai de choisir la syntaxe et les termes appropriés dans mes requêtes, car après tout, les bons mots clés restent ceux qui ouvrent les bonnes portes dans le labyrinthe Internet.

Et il est évident que de plus en plus, la page de résultats sera définie autant par l'utilisateur que par le moteur ! Une dimension qui, selon moi, manque à cette étude.

Dont une prochaine mouture devrait s'intéresser non plus à ce que les internautes s'attendent à trouver, mais à comment ils entendent le chercher. Je suis sûr qu'on aurait des surprises...




Liens connexes


Sylvain Richard
http://blog.axe-net.fr/enquete-google-sur-la-recherche-du-futur/

Marie Pourreyron
http://www.pink-seo.com/blog/futur-search-461

Léo Ludwig
http://fr.propulsr.com/moteurs-de-recherche/google-vision-futur/

Aurélien Bardon
http://oseox.fr/blog/index.php/786-moteur-recherche

Renaud Joly
http://www.renaud-joly.fr/index.php/post/2010/google-recherche-internautes

Antoine Leroux
http://www.antoineleroux.fr/google/futur-moteur-de-recherche/697

Aymeric Jacquet
http://ajblog.fr/referencement/802-recherche-ideale.html

Laurent Bourrelly
http://www.laurentbourrelly.com/blog/531.php

Sébastien Vallery
http://www.seoplayer.com/google/quel-futur-pour-la-recherche-d-information-en-ligne.html

Michel de Guilhermier
http://micheldeguilhermier.typepad.com/mdegblog/2010/01/google.html

David Degrelle
http://www.1ere-position.fr/blog/etude-google-le-moteur-de-recherche-du-futur

Olivier Andrieu
http://blog.abondance.com/2010/01/google-et-le-moteur-de-recherche-ideal_21.html

Olivier Duffez
http://www.webrankinfo.com/actualites/201001-search-future.htm

Gonzague Dambricourt
http://gonzague.me/futur-search-selon-google

Partager sur Facebook

P.S. La morale de l'histoire est la suivante : pour trouver des résultats pertinents, apprendre à bien chercher. Il y a des choses qu'on ne peut déléguer, l'apprentissage d'une langue, par exemple. Idem pour celui de la syntaxe de recherche (cf. opérateurs, via Aymeric). Google est comme le moteur d'une Ferrari de race, rien ne me servira d'en avoir une si je ne sais pas conduire !

, , , , , , , , , , , , ,

mercredi 25 mars 2009

Recherche Internet : mots clés & allongement des requêtes



Dans un billet signalé par Tom sur l'augmentation de la longueur moyenne des requêtes, le blogueur conclut :
Il semble donc de plus en plus pertinent de vouloir baser sa stratégie de référencement naturel, voire même d’achat de mots-clés, sur des expressions longues, dans la mesure où celles-ci sont appelées à non seulement devenir plus populaires, mais à fournir une information plus qualifiée aux internautes… et par conséquent à offrir les meilleurs taux de conversion et de satisfaction en cas de réelle pertinence.
Chose que j'annonçais déjà en ... janvier et octobre 2006, dans deux billets respectivement intitulés « Les co-occurrences, ou l'avenir de la recherche sur le Web » et « Booster son blog : mots clés et optimisation », où j'observais ce qui suit :
Pourtant, avec l'accroissement exponentiel du Web, il semble bien que les requêtes sur 1 ou 2 mots clés diminuent fortement et laissent la place aux recherches sur 3, 4 mots et plus.
Selon mes « statistiques obtenues de façon empirique », j'indiquais « une prépondérance de 40% des requêtes à 4 et 5 mots », chose corroborée aujourd'hui :



avec 34,37% des requêtes à 4 mots et plus

En octobre 2006, je concluais ainsi :
Pour les mots uniques, mis à part les termes sur lesquels vous êtes déjà positionnés, il est pratiquement inutile de tenter l'aventure... Par conséquent les cooccurrences intéressantes sont celles entre 2 et 5 mots clés.
Soit aujourd'hui près de 70% des requêtes (68,85 pour être précis), ce qui laisse quand même une marge de manœuvre importante.

Dans le temps, on passe donc d'une moyenne de 1,2 mot par requête en 1998, à 2,44 mots en 2005 et 3,3 en 2006 selon Yahoo, avec la tendance suivante sur la décennie 2000-2009 :


Où le pourcentage représente le pourcentage cumulé sur 1 et 2 mots clés. Pour en arriver en mars 2009 avec le résultat suivant : 56,05% des requêtes ont 3 mots et plus, ainsi divisés :
  • 21,68% à 3 mots
  • 34,37% à 4 mots et plus…
Ma conclusion de l'époque est donc toujours valable :
L'optimisation des pages d'un site doit maintenant prendre en compte les mots associés, ou, si l'on préfère, les co-occurrences clés...
Sur ce, bonne optimisation ! Dont je proposais la recette suivante, certes pas pour chaque billet, spontanéité oblige, mais de temps en temps :
Identifier l'univers lexical de son blog en analysant les cooccurrences de mots clés significatives, puis définir une thématique précise par billet, en optimiser sémantiquement le contenu et intégrer la phrase clé centrale (entre 2 et 5 termes pondérés) dans l'URL.
En sachant que la façon dont vous optimisez votre blog (ou votre site) concourt sérieusement à la définition des pages de résultats dans votre moteur préféré...


Partager sur Facebook

, , , , , , , ,

mercredi 25 février 2009

Positionnement dans Google : optimisez vos images

Depuis quelques temps, je constate dans mes liens référents que de plus en plus d'internautes arrivent sur Adscriptor via la recherche d'images de Google. Au point que plus d'1 visiteur sur 4 que m'envoie Google viennent par ce canal !

Je prends l'exemple de mes stats d'aujourd'hui via Sitemeter, qui visualise 1000 liens référents par page.

Optimiser les images pour Google
Globalement, Google m'envoie environ 35% de mes visiteurs, le reste venant de liens directs et, pour une infime partie, d'autres moteurs, mais sur cet échantillon de 1000 liens, 551 ont pour référent Google (55,1%), et sur ces 551, 150 la recherche d'images (27,22% des 551), qui correspondent à toutes les lignettes jaunes que vous voyez dans la colonne droite du graphique.

Il est intéressant de constater que plus d'1/4 des internautes arrivant ici via Google y arrivent via la recherche d'images ! Un canal qu'il convient donc d'optimiser, bien qu'à vrai dire je ne m'en sois guère soucié jusqu'à présent.

Cependant je vais prendre l'exemple de l'image ci-dessus pour voir comment je l'ai "optimisée". Trois possibilités :
  1. Le choix du nom de l'image
  2. La balise "Alt"
  3. La balise "Title"
1. Le choix du nom de l'image
Lorsque vous nommez vos images, il est clair qu'il vaut mieux mettre 1 ou 2 mots clés dans le nom du fichier que de l'appeler W21agvoWLfE.gif ou 874534542.jpg ! C'est ainsi que j'ai nommé celle-ci images_google, sans rentrer dans le détail de la distinction entre le trait d'union (tiret, ou dash), et l'underscore (trait bas), selon laquelle le tiret serait considéré comme un séparateur mais pas le trait bas.

Donc suivant ce critère, mieux vaudrait choisir images-google que images_google, mais personnellement je préfère l'underscore, indépendamment de ses (dé)mérites en référencement.
2. La balise "Alt"
La balise "Alt" pour les images sert à visualiser le nom que vous donnez à vos images lorsque leur affichage est désactivé. Quelqu'un qui lirait ce billet sans visualiser les images verrait donc un rectangle vide avec au centre la description que j'ai choisie pour l'attribut "Alt" : Optimiser les images pour Google. Les puristes vous diront que, contrairement à la balise "Title", la balise "Alt" est prise en compte par Google pour référencer les images.
3. La balise "Title"
Normalement cet attribut sert pour les liens, plutôt que pour les images. Personnellement, sur mon blog, chaque fois que j'utilise la balise "Alt", je mets également la balise "Title" avec la même description, qui s'affiche dans une bulle lorsque votre souris survole l'image.

Sur une page Web, vous pouvez également appliquer cette tactique aux listes de points (bullets), comme je l'ai fait sur ma page CV.

À chaque point de la liste, j'ai mis uniquement la balise "Alt", or IE l'interprète comme si c'était une balise "Title" (en visualisant donc le contenu de l'attribut à chaque passage de souris), alors que Firefox et Chrome n'affichent rien.

Par conséquent sur Adscriptor je préfère accoler un double attribut (Alt + Title) aux images (quand je le fais...), car en mettant les deux, ça m'évite de me tromper et je suis sûr que les internautes voient le même résultat, indépendamment du fait qu'ils utilisent Firefox, Chrome, Internet Explorer ou autres (j'ignore ce qu'il en est pour les autres).
Voilà, ces quelques réflexions jetées à la va-vite ne prennent pas en compte l'accessibilité des sites Web, qui est quelque chose de beaucoup plus pointu et un peu hors de mes compétences. Naturellement, je n'optimise pas systématiquement toutes les images que j'insère dans mes billets, même si je gagnerais sûrement à le faire, vu le nombre croissant de visiteurs qui arrivent sur mon site via les images.


Partager sur Facebook

, , , , , , , , , , , , ,

jeudi 8 janvier 2009

Noms de domaine et parking : Parking 2.0 vs. Parking 1.0

Noms de domaine et parking : Parking 2.0 vs. Parking 1.0

Parking 1.0 : déclin d'un modèle économique qui s'essouffle
Parking 2.0 : évolution du parking et nouveaux modèles économiques

* * *

Parking 1.0 : déclin d'un modèle économique qui s'essouffle

Il y a longtemps que je voulais faire un billet sur la nature et l'évolution du parking. En France, les gens ont tendance à liquider ça d'un revers de main, en criant bien haut et fort comme quoi c'est indécent, et ceci et cela. Et puis le parking c'est du cybersquatting, et du typosquatting, et du phishing, et ceci et cela.

Mais point de discussions véritablement sérieuses, à part sur Blogodomaines, mais c'est normal, me direz-vous, puisqu'il est partie prenante. Il n'empêche, ce n'est pas parce qu'on est partie prenante qu'on écrit forcément des choses intelligentes comme l'ami Rémy.

Qui nous fournit d'ailleurs une bonne illustration de comment fonctionnent actuellement le parking et le modèle économique qu'il y a derrière :


Un modèle économique aujourd'hui fortement en crise, nous allons voir pourquoi. Mais en tout état de cause, continuer à l'infini de faire l'impasse sur une réalité économique faite d'une vingtaine de millions de sites témoigne d'une absence totale de clairvoyance...

Tout d'abord je vais laisser de côté l'internaute et l'annonceur, même s'ils font clairement partie intégrante de l'écosystème "parking", pour me concentrer sur les trois types d'acteurs généralement impliqués :
  1. la régie publicitaire
  2. la plateforme de parking
  3. le titulaire du nom de domaine
1. La régie sert les pubs, c'est-à-dire qu'elle fournit les liens contextuels et/ou, plus rarement les bannières ;
2. la plateforme de parking héberge ces liens sur une page Web, vers laquelle pointe le nom de domaine ;
3. les titulaires de noms de domaine en parking ont un profil extrêmement segmenté, allant du simple particulier avec un seul ou quelques noms parqués, aux registrars du genre Moniker ou Fabulous & Co. qui peuvent gérer directement ou indirectement plusieurs millions de noms, en passant par des portefeuilles intermédiaires de quelques centaines à des milliers de noms, ou plus importants en quantité (Frank Schilling) (plus de 100 000 domaines) et/ou en valeur (Rick Schwartz) (+5 000, dont Candy.com, Properties.com, Tradeshows.com, Cheating.com, etc.).

Les registrars comme GoDaddy ou Domainsite (pour ne citer qu'eux) sont des cas à part, même s'ils ont en commun d'exploiter le parking en partenariat avec Google.

Or jusqu'à présent, la logique économique consistait essentiellement à cibler la pertinence des liens contextuels en fonction du nom de domaine et de son potentiel en navigation directe.

Mais bon, comme je l'expliquais ici, il n'y a qu'un seul nasa.com, ou meteo.com..., et par conséquent cette logique a trouvé ses limites, notamment à cause de la convergence de plusieurs facteurs :
  • la pratique de la navigation directe, dont les revenus étaient généralement estimés à 10-15% de l'ensemble des revenus générés par la recherche payante (chiffre encore à vérifier, si quelqu'un a des infos), est en perte de vitesse constante, au profit de la recherche directement dans les moteurs de recherche, un concept encore affiné avec la onebox de Chrome ;
  • la désaffection des internautes, de plus en plus las d'atterrir sur des pages poubelles truffées de liens publicitaires qui n'apportent désormais plus aucune valeur ajoutée à leur "expérience utilisateur" (sans parler des craintes implicites du genre : est-ce que je ne vais pas attraper un virus si je clique sur un de ces liens, etc.) ;
  • les grosses régies qui étaient les principaux pourvoyeurs de fonds des parkings - j'ai nommé Google et Yahoo! - changent lentement mais sûrement leur fusil d'épaule, Google en ouvrant à tous son programme AdSense for Domains, en rupture totale comme à son habitude, et Yahoo! en faisant n'importe quoi, comme à son habitude...
Résultat des courses : une baisse considérable des gains par clic (EPC - Earnings per click).

Quant aux prestataires de parking, comme l'explique Rémy, leur but ultime consistait à « agréger le plus de trafic possible pour pouvoir négocier des contrats plus intéressants avec les fournisseurs de liens publicitaires. Et ce pour pouvoir à (leur) tour offrir des taux de rémunérations toujours plus compétitifs à (leurs) clients. Et agréger encore plus de trafic (effet boule de neige) », voire à « se lancer eux-mêmes sur l’enregistrement et le rachat de noms de domaine pour s’assurer une taille critique ».

Donc maintenant que toutes les logiques qui ont assuré le succès de l'ère Parking 1.0 sont définitivement cassées, il serait peut-être temps de passer à l'ère Parking 2.0. Voyons comment. [Début]

* * *

Parking 2.0 : évolution du parking et nouveaux modèles économiques

La première réflexion est qu'une constante demeure entre les concepts de Parking 1.0 et Parking 2.0, à savoir que le parking reste un fort vecteur publicitaire, un formidable canal promotionnel pour peu qu'il soit ciblé et pertinent.

Les annonceurs et les régies ont accepté le parking tant qu'ils en jugeaient le trafic qualifié, traditionnellement avec des taux de conversion des pages parking jugés supérieurs à ceux des clics sur les moteurs de recherche (4,23% vs. 2,3%, selon une étude WebSideStory - Omniture aujourd'hui - qui a fait date).

Pour autant, le deuxième constat, c'est que l'ensemble de l'écosystème Parking 1.0 a été construit autour d'un grand absent : le CONTENU !

Or même si le parking est souvent une situation intermédiaire, qui permet de générer des revenus dans l'attente d'une revente, ça n'est pas une excuse pour faire n'importe quoi entre-temps. D'où la confusion de plus en plus justifiée entre les pages parking et les MFA (Made for Adsense), vu que pendant longtemps Google n'a pas vraiment fait grand chose pour corriger ses incohérences...

D'où également la connotation de plus en plus négative du parking, associé à du parasitage pur et simple par une grande partie du public francophone. L'approche des anglo-saxons est différente, comme souvent sur Internet, ce qui n'empêche que les internautes se retrouvant sur ces pages sont de moins en moins considérés "qualifiés" par les annonceurs, qui font également l'amalgame avec la fraude aux clics.

Une situation critique qui demande un renversement de tendance net. Comment ? En inversant la traîne, tout simplement, c'est-à-dire en passant de la longue traîne à la grande traîne de l'UGC :
  1. en insufflant du contenu dans le parking, et si possible du contenu pertinent, de qualité ;
  2. en rémunérant enfin les créateurs de ce contenu à travers un partage des revenus plus favorable.
Fini les vieux critères de partage, tout le monde y trouverait son compte. Des internautes aux annonceurs...

D'où une nouvelle définition du parking, qui m'a été soufflée par Jean-Philippe Hermand : crédibiliser les liens publicitaires par la pertinence du contenu.

On constate d'ailleurs un désir de diversification de plus en plus poussé chez des acteurs établis du parking, qui commencent à tourner autour de ces concepts, que ce soit celui de la pertinence via la sémantique (approche de SEDO qui investit dans Domainsbot), ou celui du contenu via le développement de véritables minisites (démarche de AEIOU, Kwikcontent, WhyPark ou Parking Revolution, entre autres).

Mon idée est différente. Pour moi, le bon mix consisterait à alimenter automatiquement les pages parking en flux RSS pertinents par rapport aux noms de domaine, sur le modèle Wikio de catégorisation thématique et de création de pages à la volée (ce que fait également fort bien Webjam).

Imaginez que chaque blogueur choisisse en opt-in que ses flux soient repris sur des parkings, naturellement contre un partage de revenus équitable entre les différentes composantes : la régie, l'agrégateur-distributeur de flux, les créateurs des contenus syndiqués et les titulaires des noms de domaine !

Coup double : une source de monétisation supplémentaire pour les créateurs de contenu d'une part, un flux ininterrompu d'UGC alimentant en automatique des pages parking complètement révolutionnées de l'autre.

Les spécialistes de l'AdSense pourraient objecter que si le contenu est trop pertinent, les internautes cliqueront moins sur les pubs. Soit. Mais de toutes façons, avec les formules actuelles, ils ne cliquent plus dessus de toute façon. À tel point que tout le monde - des annonceurs aux régies en passant par les utilisateurs - ne demande plus qu'une chose : de la qualité !

C'est le concept de smart pricing chez Google :
Ajoutez toujours plus de contenu pertinent à votre site et maintenez-le à jour afin de conserver l’intérêt de vos visiteurs. Si vos visiteurs sont intéressés par vos pages et qu’ils cliquent sur l’une de vos annonces, ils effectueront probablement une action sur le site de l’annonceur partenaire et votre taux de conversion s’en verra augmenter, de même que vos revenus. Du contenu de qualité se traduit souvent par une expérience positive pour vos visiteurs et vos annonceurs.
Donc s'il est vrai qu'il n'y a plus de qualité sans contenu pertinent fréquemment réactualisé, il est tout aussi vrai que personne n'a encore trouvé le moyen d'alimenter en temps réel des centaines de milliers - voire des millions - de sites parking en contenu de qualité.

Ce que pourrait assez facilement faire une plateforme comme Wikio, j'en ai déjà parlé avec Pierre Chappaz il y a plusieurs mois, mais il ne m'a pas semblé convaincu. D'où ma décision de partager mes idées avec la "communauté", juste pour tester le retour et collecter vos critiques et suggestions.

Au départ, me semble-t-il, c'était un peu l'idée de Blogbang, qui a pourtant réussi à casser dans la foulée une dynamique particulièrement porteuse, en merdant totalement le back-office après un démarrage en trombe. Dommage ! Et difficile à rattraper. Même si avoir Publicis derrière, ça peut aider...

Quant à cette (r)évolution des pages parking, il faut qu'elle n'ait pas seulement lieu sur le fond (le contenu), mais aussi sur la forme, en allant plus loin que la logique Google (depuis longtemps, et plus que jamais, dans le business...) :


En calquant la conception de ces pages sur le modèle des (r)évolutions qui attendent les traditionnelles pages de résultats, par exemple, encore « aujourd'hui TRÈS largement sous-exploitées, en termes de présence optimisée :
  • par les images
  • par les vidéos
  • par les cartographies
  • par les médias sociaux
  • par les widgets
  • multiforme et multiformats (blogs, sites, pages de réseaux sociaux, sites de partages de favoris, de documents...)
  • par la publicité
Etc.
»

Mais ce sera un autre débat ... dont j'espère qu'il aura lieu ! [Début]



Partager sur Facebook

, , , , , , , , , , , , , , , ,

vendredi 12 décembre 2008

The search page is defined by...

La page de résultats est définie par...

Par qui ? Par l'utilisateur ou par le moteur ?

Par les deux dirais-je, par les intentions de l'un mixées aux algorithmes de l'autre. Dans l'exemple donné sur son blog :


Olivier Andrieu remarque :
l'espace réellement visible (...) est entièrement accaparé par des liens issus de "la maison Google"...
Oui et non : car pour neuf liens sponsorisés (trois en position "premium" et six dans la barre latérale), la liste des 10 liens issus de Google Maps est bien à mettre au compte des résultats organiques. Google le précise clairement :
L'inclusion dans Google Maps et dans les résultats de recherche du site Google est gratuite. Si vous désirez ajouter votre entreprise à Google Maps, suivez les directives ci-dessous. Votre fiche s'affichera automatiquement dans les premiers résultats de recherche sur le site Google lorsque nos algorithmes la jugeront pertinente par rapport à la requête effectuée. Nous n'avons pas d'informations supplémentaires à vous communiquer au sujet du classement de votre fiche.
Donc je trouve arbitraire cette affirmation :
Google everywhere... et aucune place pour les autres si ce n'est un demi-résultat peu visible en bas d'écran, à peine au dessus de la "ligne de flottaison"... Bien sûr, on objectera - avec raison - que sur un écran plus grand, les résultats organiques (...) apparaissent.
et je m'étonne qu'Olivier Andrieu, fin référenceur, fasse naître une telle confusion dans l'esprit de son lectorat, en donnant à croire que ces 10 liens "Google Maps" ne seraient pas issus de l'index "organique".

D'autant que, personnellement, tels quels, je les trouve encore plus visibles que les liens sponsorisés.

Sans compter que la métaphore du triangle d'or invoquée par Olivier Andrieu comme seul "espace réellement visible", ne fonctionne pas dans le cas présent, comme l'ont démontré les études de ... Gord Hotchkiss, toujours lui :
L'attention de l'œil étant d'abord capturée par l'image (encore faut-il qu'elle remplisse le critère de la pertinence par rapport à la recherche de l'internaute), cela déplace le "centre de gravité" du point d'entrée, c'est-à-dire là où se pose le regard en premier, d'où il commence ensuite à balayer la page.
En fait, c'est très exactement ce qui se passe avec la carto de Google Maps de la capture ci-dessus, puisque l'œil, fortement attiré par l'image, va d'abord naturellement se poser sur les liens à droite de l'image (et qui plus est au centre de la page).

Donc que dire là encore, sinon que le critère de la pertinence par rapport à la recherche de l'internaute est ici pleinement rempli...

Dans le même billet il était d'ailleurs question des révolutions qui attendent la traditionnelle page de résultats, tant sur la forme que sur le fond :
  • sur la forme, avec une présentation des liens non plus linéraire mais intégrant, ou, pour mieux dire, amalgamant (blending) photos, vidéos, cartes géographiques, commentaires, etc. (côté pub on peut très bien envisager la présence de widgets interactifs en plus des habituels liens contextuels, d'autres formats riches...) ;
  • sur le fond, avec l'émergence de la recherche universelle (celle qui va puiser dans les différents index, ou inventaires), de la personnalisation (celle qui tient compte de vos préférences et de votre profil) et de la verticalisation (celle qui décide des thématiques auxquelles appliquer personnalisation et recherche universelle).
En fait, si je devais hiérarchiser, je dirais que c'est cette dernière qui passe en premier et subordonne les deux autres, avec par ordre d'importance :
  1. Verticalisation
  2. Personnalisation
  3. Recherche universelle
Or la personnalisation est fortement mise en avant par Google, Marissa Meyer le dit depuis un moment déjà et l'a encore répété au Web 08 :
  • search needs to be more dynamic and more personalised
  • talks about personalised search... usual caveat about being careful with users' data
  • "we don't know what will fuel personalised search, but we think it will be one of the traits of the successful search tools of the future"
  • "another part of personalisation is the social aspect"
Voilà pourquoi je trouve l'analyse d'Hotchkiss s'interrogeant sur Who Owns The Search Page? nettement plus propice à la réflexion (ne se demandait-il pas déjà l'année dernière, vu la façon dont les moteurs de recherche innovent, pourquoi les Web marketers n’en font-ils pas autant ?) : une réflexion que devraient mener tous ceux qui ont des services à vendre sur Internet, puisque de plus en plus ces trois composantes de la recherche - verticalisation, personnalisation et recherche universelle - offrent des alternatives aujourd'hui TRÈS largement sous-exploitées, en termes de présence optimisée :
  • par les images
  • par les vidéos
  • par les cartographies
  • par les médias sociaux
  • par les widgets
  • multiforme et multiformats (blogs, sites, pages de réseaux sociaux, sites de partages de favoris, de documents...)
  • par la publicité
Etc.

Donc en conclusion, la page de résultats est définie par les trois composantes qui la font :
  1. par les requêtes saisies,
  2. par l'imagination et l'inventivité de ceux qui décident de leurs stratégies de liens, de trafic, de référencement / positionnement, de mots clés, de pages clés, de noms de domaine, etc.,
  3. et par la pertinence des algorithmes...
Comme quoi il reste de la marge si on veut bien s'en donner la peine, et ce n'est pas encore réservé uniquement à ceux qui paient le plus ! Quant à savoir où va la recherche...


Partager sur Facebook

P.S. Réponse à TomHtml, qui me dit en commentaire :
Parmi les résultats de Google Maps (et par conséquent de sa onebox), il y a des pub "adwords", c'est à dire que des annonceurs paient pour que le marqueur positionnant leur entreprise apparaisse toujours sur la carte quand on fait une recherche à proximité.
C'est une minorité, mais elle existe... Donc Olivier a en partie raison puisque ces résultats ne sont pas tout à fait naturels.
Depuis le début, Google a toujours mis un point d'honneur, me semble-t-il, à ne jamais induire en erreur ses utilisateurs entre résultats naturels et sponsorisés, ces derniers étant toujours distingués de façon claire et sans équivoque par rapport aux premiers. Voilà pourquoi je dis que dans l'exemple choisi par Olivier Andrieu, les 10 liens issus de Google Maps sont des liens naturels qui compensent autant de liens sponsorisés.

Chose que je vais essayer de démontrer. Si le commentaire de Tom est une probabilité, il y aurait trois hypothèses. Nous aurions en effet, parmi les liens qui jouxtent la carte :
  1. soit 10 liens sponsorisés ;
  2. soit des liens sponsorisés mélangés à des liens naturels ;
  3. soit 10 liens naturels.
1. Dix liens sponsorisés

Non seulement la chose n'est signalée nulle part, mais en plus cela nous donnerait toute la partie de la page au-dessus de la ligne de flottaison, comme dit Olivier, truffée de liens sponsorisés, une vingtaine pour être précis. Inacceptable. Et même impossible. Si Google faisait ça, ce serait le déclin assuré de son utilisation par la masse des internautes. Et si Google voulait scier seul la branche sur laquelle il trône, il n'y aurait pas de meilleure solution !

2. Mix de liens sponsorisés + liens naturels

Idem. Inacceptable sans signaler la chose aux internautes. De plus, à ma connaissance, Google n'a jamais fait ça. J'ai testé la même requête directement dans Google Maps, et l'on voit bien dans la colonne latérale gauche, où s'affiche la liste des hôtels, que les liens commerciaux sont clairement mis en évidence en tête et en pied de colonne. Voir la capture :


On peut d'ailleurs constater que les marqueurs ne sont pas les mêmes entre liens naturels (tous identiques) et liens sponsorisés (personnalisés), différence qui se retrouve sur la carte :


Voilà pourquoi je pense que nous avons au final :

3. Dix liens naturels

Que l'on retrouve d'ailleurs mélangés dans les 20 liens naturels présentés directement sur Google Maps (avec un seul lien d'écart).

, , , , , , , , , , , , ,

jeudi 17 avril 2008

Keywords are nothing without Keypages!

Autrement dit, « Les mots clés ne valent rien s'ils ne sont pas contextualisés dans des pages clés ! » (côté éditeur, car côté annonceur, la problématique est différente)

Préambule

Les mots clés
1. Qu'est-ce qu'un mot clé ?
2. Quelques caractéristiques des mots clés

Les pages clés
1. Qu'est-ce qu'une page clé ?
2. Quelques caractéristiques des pages clés

* * *

Préambule

Depuis l'achat d'Overture en 2004 par Yahoo! le concept des mots clés à fait florès. Or aujourd'hui, l'optimisation des mots clés à elle seule ne suffit plus, vu la concurrence avec le payant, et surtout elle a bien moins d'efficacité si elle est faite en aval.

Traduction : on crée un site sans stratégie bien précise, on met dedans un nombre plus ou moins grand de pages avec du contenu plus ou moins pertinent, et ensuite on pense à quels mots clés utiliser pour le faire connaître.

Or le problème, en procédant de cette manière, c'est qu'on trouvera toujours devant nous une bonne centaine de sites mieux optimisés qui occuperont "naturellement" les 10 premières pages de résultats de Google, Yahoo & Co. ; "naturellement", c'est-à-dire dans les résultats organiques.

Et puis on trouvera aussi devant nous tous les annonceurs dont les liens sponsorisés seront bien en évidence sur ces mêmes mots clés qu'on aura péniblement extraits de nos réflexions a posteriori.

Donc, première règle d'or, les mots clés doivent être définis en amont du process de développement d'un site, ou d'un blog, qui vont être le contenant : un contenant à construire autour du contenu.

Ceci dit, avant d'imaginer la conception d'une page autour d'un mot clé, ou d'un ensemble de mots clés sémantiquement proches, mieux vaut d'abord se demander : 1) qu'est-ce qu'un mot clé ? Et la question corollaire : 2) quelles doivent être ses caractéristiques ? [Début]

* * *

Les mots clés

1. Qu'est-ce qu'un mot clé ?

Techniquement, disons que les mots clés sont des "tags", des étiquettes en bon français, servant à catégoriser vos pages, vos messages, vos recherches.

Jusqu'à présent leur emploi a été plutôt basique, mais il serait temps de passer d'une utilisation par associations (d'idées, de concepts), à une utilisation par intentions, selon cette définition d'Otavo :
Quelles sont les différences entre les mots clés et les intentions ?

Les mots clés sont des catégories, et, en tant que tels, ils ne vous indiquent ni COMMENT ni POURQUOI vous souhaitez utiliser l'information qu'ils étiquettent, mais juste à quelle catégorie elle appartient dans le grand ordonnancement des choses.

Par contre les intentions sont porteuses du POURQUOI et du COMMENT vous souhaitez utiliser l'information.
Une notion déjà évoquée dans mon billet sur Powerset, où j'observais que « les mots clés sont au centre de la reformulation des requêtes, en cartes mentales pour les utilisateurs, en ontologies pour les moteurs. »

En prenant pour exemple le film suivant :


Or puisque les mots clés seuls ne peuvent indiquer ni le COMMENT ni le POURQUOI qui sous-tendent vos intentions, c'est en les contextualisant dans des pages clés que vous allez pouvoir faire d'un simple document contenant des mots clés un document vecteur de votre message, rendu à la fois plus intelligent et plus intelligible, autant pour vos lecteurs que pour les moteurs. [Début]

2. Quelques caractéristiques des mots clés
  • Les mots clés doivent faire sens ! Pris séparément ET collectivement. Une activité ne se définit jamais par UN mot clé seul, mais par DES mots clés, des expressions clés, des cooccurrences, des phrases clés, qui s'inscrivent dans un contexte.
    Dans lequel ils ont une densité (idéalement entre 3% et 7%, sans jamais dépasser les 10%), appliquée à la page qui les accueille.

  • Les mots clés ne sont pas seulement "entrants" mais également "sortants".
    • Entrants : ils amènent du trafic vers vos pages, puisque mis à part la navigation directe et les relais des réseaux sociaux, la plupart des internautes vous rendent visite après avoir saisi des mots clés dans les moteurs.
    • Sortants : ils convoient votre message à l'extérieur, sur les réseaux sociaux, les sites de partage de photos, de liens, de vidéos, de présentations, Technorati, etc.
    Et entrants ou sortants, ce sont des ancres qui matérialisent des liens : pensez aux nuages de mots clés, ces fameux "tag clouds", où tous les termes sont clicables.

  • Les mots clés peuvent également être connotés marque ou non connotés marque (génériques), et doivent s'insérer dans les URL de vos pages et billets (les résultats sont parfois surprenants).
Transposons maintenant ces considérations aux pages clés en nous interrogeant de façon semblable : 1) qu'est-ce qu'une page clé ? 2) quelles doivent être ses caractéristiques ? [Début]

* * *

Les pages clés

1. Qu'est-ce qu'une page clé ?

Une page clé est une landing page, ou page d'atterrissage, où se rencontrent, dans le meilleur des mondes, les attentes de l'auteur et celles du visiteur.

Déjà, si vous cliquez sur les deux liens précédents, que vous les lisez ainsi que toutes les références auxquelles ils renvoient, vous en saurez plus que moi sur la question ! Et c'est en français, une fois n'est pas coutume.

Mon but ici n'est pas tant d'insister sur l'aspect technique, bien qu'il reste primordial, mais plutôt d'encadrer ce concept de page clé dans la réalité du Web aujourd'hui, où chaque page est évaluée, décortiquée et pondérée par les moteurs comme une entité à part entière. Certes rattachée à l'écosystème dont elle fait partie, mais indépendante en termes de poids spécifique et de positionnement.

Pour donner un exemple limpide, certains billets d'Adscriptor sont très bien positionnés, d'autres pas du tout. Idem pour les pages clés... Qui doivent être un mélange d'optimisation, et de rédaction. Comme pour un billet de blog ! [Début]

2. Quelques caractéristiques des pages clés

Dans Booster son blog : mots clés et optimisation, je concluais en observant :
Identifier l'univers lexical de son blog en analysant les cooccurrences de mots clés significatives, puis définir une thématique précise par billet, en optimiser sémantiquement le contenu et intégrer la phrase clé centrale (entre 2 et 5 termes pondérés) dans l'URL.
Il en va de même pour une page clé, que nous pourrions comparer à un billet de blog, sauf que là, l'univers lexical est celui de votre activité, de votre service ou du message à faire passer.

Deuxième règle d'or, une page clé se construit plus qu'elle se rédige, c'est de l'ingénierie linguistique où le paramètre de base peut se résumer par la formule G + 2H + 5W : qui, quoi, où, quand, pourquoi, comment, combien et en première place G = Google.

Car n'oublions jamais que la présence sur Internet n'est rien sans la visibilité, qui découle de votre positionnement dans les moteurs en général, et sur Google en particulier, principal vecteur de trafic aussi bien en Europe qu'aux États-Unis ! [Début]


Partager sur Facebook

P.S. Si vous vous demandez pourquoi j'ai choisi d'intituler ce billet "Keywords are nothing without Keypages!" plutôt que "les mots clés ne valent rien s'ils ne sont pas contextualisés dans des pages clés !", c'est simplement parce que la transformation des titres en URL dans Blogger ne prend pas en compte les caractères accentués, et ça m'énerve. Vivement les IDN... [Début]

, , , , , , , , , , ,

mercredi 9 janvier 2008

Le Web en 2008

Je rassure de suite les allergiques aux prévisions de toute sorte, en dépit du titre, ce billet n'anticipe aucun des secrets de Mme Soleil pour l'année en cours, mais tente plutôt de dresser un constat de ce qu'est le Web aujourd'hui, selon la perception et la vision que j'en ai.

L'état des lieux
La troisième décennie du Web

* * *

L'état des lieux

Il était une fois ... le Web. Déjà, parler du World Wide Web, ça nous situe dans le temps, à la fin des années 80, début de la décennie 90 (puisqu'il faudrait remonter à 1957 pour Internet, l'année de ma naissance la création de l'ARPA) !

Au terme des dix premières années, la croissance exponentielle du Web a conduit AltaVista, IBM et Compaq à publier, en mai 2000, une étude intitulée Graph structure in the web, analysant 200 millions de pages et 1,5 milliard de liens, où le graphe qui ressort a la forme d'un nœud papillon :


D'où l'apparition de la bow-tie theory, qui classifie les sites de la façon suivante :
* le cœur du réseau : environ 30% des sites les plus interconnectés qui se partagent et où converge un maximum de liens et de trafic ;
* les sites d’origine : environ 20% des sites d’où les internautes sont dirigés vers le cœur du réseau, avec très peu de liens qui pointent en sens inverse ;
* les sites de destination : environ 20% de pages accessibles depuis le cœur mais n’y renvoyant que très peu ;
* les sites déconnectés : environ 30% d’îlots épars n’ayant que peu de liens et générant peu de trafic.
Une topographie d’Internet et un constat qui ont donné lieu, notamment avec le dépôt du PageRank en 1998 par Larry Page (nomen omen...), à l'impérieuse nécessité d'élaborer des stratégies de liens, de trafic, de référencement, de positionnement, d'optimisation, y compris de l'écriture Web, des mots clés, du contenant, du contenu, des flux, mais également pour les moteurs de recherche, puis pour les médias sociaux, avec l'émergence de nouveaux influenceurs et d'une recherche "sociale", au point d'amener Danny Sullivan lui-même à qualifier les médias sociaux de nouveaux moteurs de recherche (voir également ici...), etc.

Or tout cela c'était avant l'arrivée de Facebook, de son graphe social et de sa formidable puissance de frappe marketing et virale, avant la montée en régime de la téléphonie mobile, dont l'usage est destiné à exploser, et surtout avant la notion d'interface sociale, porteuse de gigantesques bouleversements en termes de communication et de ... présence Internet !

Voici donc où nous en sommes : à la veille d'un grand chambardement, annoncé autant par le Web 2.0 que par le Web 3.0, n'en déplaise à tous ceux qui taxent ces déclinaisons successives d'obsolètes. J'ignore par exemple si Twine tiendra toutes ses promesses ou sera à la hauteur de Facebook en termes de révolution des usages, mais ce dont je suis certain, c'est qu'en 2008 le Web est sur le point d'entrer dans sa troisième décennie... [Début]

La troisième décennie du Web

Révolu, donc, le temps où une présence Internet pouvait se limiter à un site Web, pour autant qu'il fût élaboré et connecté, désormais l'heure est à la multiprésence, à la communication multiforme (sites, blogs, microblogging, forums, réseaux, widgets, mobiles, vidéos, événementiel, pub, résultats organiques, etc.), à la multiparticipation active, à la gestion multisupport de son interface sociale, où chacun (entreprise ou particulier) ne se place plus seulement en nœud du réseau, mais en position centrale dans la galaxie Internet :


Ce que David Armano appelle un système social, ou mieux, un écosystème social, au sein duquel, « We are the center of our own micro-universe »...

Donc la rupture avec le passé est évidente :
Hier, le cœur du réseau, c'était « environ 30% des sites les plus interconnectés qui se partageaient et où convergeait un maximum de liens et de trafic » ; aujourd'hui, le cœur du réseau, c'est vous !

Hier j'étais anonyme, aujourd'hui je gère mon identité numérique. Hier j'étais présent sans être visible, aujourd'hui je suis présent ET visible ! Une nuance de taille. Impossible à imaginer hier, réalité aujourd'hui. À nous d'en faire bon usage... [Début]


Partager sur Facebook

, , , , , , , , , , , ,