Il y a quelques jours, à l'occasion de la rédaction d'un billet sur les stratégies pour les moteurs de recherche, j'ai découvert une personnalité du Web dont on entendra beaucoup parler, j'en suis sûr. Il s'appelle Vinny Lingham, il a tout juste 27 ans, c'est un champion d'échecs et un génie des maths et il est déjà à la tête de plusieurs Web-entreprises sur lesquelles j'aurai l'occasion de revenir.
J'ai appris beaucoup de choses en lisant ses articles, mais il y en a un qui m'a particulièrement impressionné par les idées qu'il développe. Publié le 15 novembre 2005, il pourrait bien s'avérer « prophétique » à plusieurs égards... Son approche est 100% axée business, mais qu'on le veuille ou non, c'est probablement la dimension qui influencera le plus nos expériences d'internautes dans le futur, pour le meilleur et pour le pire. C'est un billet plutôt technique, mais expliqué en termes simples, ce qui fait que même un profane comme moi a réussi à en saisir le sens. Enfin, j'espère ! Il s'intitule The Future of Search Engines? et en voici la traduction autorisée :
L'avenir des moteurs de recherche
« D’une manière générale, je crois que les moteurs de recherche doivent sérieusement s’interroger sur : 1) quelles sont les motivations qui poussent les internautes à chercher sur le Web, et 2) comment maximiser leurs revenus, afin de créer un cycle vertueux : plus vous gagnez d’argent grâce aux requêtes d’utilisateurs satisfaits, plus le cycle tend à se répéter et ainsi de suite. S’ils veulent vraiment concurrencer Google, les moteurs de recherche émergents (A9, MSN, etc.) devront mieux appréhender en amont les facteurs qui impulsent leurs revenus (réels ou planifiés), et appliquer ces facteurs au développement de leurs services pour pouvoir pénétrer plus profondément la psychologie des consommateurs (et leurs portefeuilles par la même occasion).
Je crois en une fusion potentielle du coût par clic (CPC) et de la recherche organique, où les moteurs proposeraient des liens aux revenus partagés.
Les risques de fraude aux clics, véritable plaie pour les annonceurs, pourraient ainsi être éliminés grâce au partage des revenus. Le fait que le coût au clic continue de grimper est un signal que les annonceurs sous-paient leur trafic sur les moteurs fournissant des résultats CPC, ce qui permet à des agents d’affiliation tels que nous de gagner beaucoup d’argent en faisant un travail d'arbitrage.
Voici une stratégie alternative pour les moteurs :
John Battelle a défini dans son livre, Search, les 3 clés de voûte d'un moteur :
1. L’indexation par robots
2. L'index
3. L'interface utilisateur
Or à mon avis il y en a une quatrième : l'interaction consommateur.
Les sites Web et les résultats de piètre qualité tendent à générer plus de recherches semblables et moins de revenus par utilisateur. Donc en assurant un suivi de l'interaction entre l’utilisateur et un site Web, vous pouvez augmenter à la fois la qualité des résultats et les revenus du moteur. Les acteurs majeurs de la recherche ne passent pas assez de temps à étudier les statistiques post-conversions générées par les résultats organiques, or c’est là une occasion en or d’extraire des pépites d’un vaste gisement d’informations largement inexploité par l'industrie des moteurs.
(…)
Pour mieux comprendre l'interaction consommateur, il faut distinguer les intentions de trafic de l'utilisateur entre intentions commerciales et non-commerciales.
Je vais me concentrer sur les résultats de la recherche organique répondant à une logique commerciale, mais ces principes d’usabilité peuvent également s'appliquer aux résultats de nature non-commerciale.
Si un suivi de la qualité des sites Web indexés par un moteur était assuré en tenant compte de l'interaction utilisateur par rapport au mot-clé recherché, vous verriez que tous les résultats produits par le spam de moteur (technique de positionnement d’un site dans les résultats des moteurs sur des quantités de mots-clés non pertinents – NdT) seraient rapidement et organiquement relégués tout au fond des résultats.
Or le spam de moteur est quasi-identique au spam de courriel : gros volumes, faibles taux de conversion et beaucoup d’énervement.
Le trafic normal se positionnerait indépendamment du spam, en fonction de l'expérience utilisateur sur un mot-clé donné. Pour autant, positionnement indépendant ne signifie pas nécessairement non-monétisation du trafic organique.
Il fut un temps où Inktomi générait des résultats organiques « Trusted Feed » (système automatisé permettant de soumettre aux moteurs des données complémentaires - NdT), mais le problème c’est que les annonceurs n’avaient aucun contrôle sur les mots-clés pour lesquels ils payaient.
Le marché est passé ensuite au CPC, même si je suis convaincu que le coût par clic n’est qu’une étape vers le coût par action, l’outil d’analyse dont se servent les marketeurs intelligents qui vendent du CPC.
À l’heure actuelle, Snap essaie de mettre en place la plupart des solutions décrites ici, mais je ne crois pas qu'ils connaissent suffisamment l'espace marketing de l'affiliation pour mener à terme une telle stratégie, ou alors il leur faudrait des années pour nouer des relations directes avec chaque site Web.
Le point central consiste plutôt à réaliser une plate-forme ad hoc et s’en servir pour développer des opportunités d’affaires. Vu le taux de croissance de Google, les moteurs de recherche concurrents tels que Yahoo auraient besoin d’une stratégie de pointe robuste pour inverser la tendance, or je suis convaincu qu'une telle stratégie réside dans « l'interaction consommateur ».
Le PageRank est mort.
Les liens deviennent de moins en moins importants, vu l’émergence des fils RSS. Les sites Web ne pointent plus les uns vers les autres, ils en syndiquent le contenu sur leur propre site.
Beaucoup des résultats de Google sont générés par du spam de moteur, qui résulte la plupart du temps de la duplication de contenu des fils de syndication : peut-on encore se fier à l’indice de popularité des liens ? L'utilisation des liens entrants pour déterminer l'autorité d’un site commence à décliner et s’érodera toujours plus.
Un autre problème avec les liens est qu’en utilisant les CSS, dont la reconnaissance n’est arrivée qu’après le PageRank, il suffit de mettre un seul lien sur votre site Web et de le propager dans tout le site de façon totalement transparente.
Il est notoire que les spammeurs de moteur achètent des liens PR9 et PR10 pour augmenter leur PageRank.
Donc, en qui pouvons-nous avoir confiance ?
Et pourquoi ne pas laisser le client décider ce qu'il juge plus pertinent et adéquat...
Imaginez le scénario suivant :
Un utilisateur recherche « DVD de Star Wars » dans Google. Les trois premiers résultats sont Amazon, Buy.com e eBay. Pour l’instant, vous ne savez pas chez lequel des 3 l'internaute va acheter son DVD. Or c'est là une info cruciale absente de votre base de données : imaginez un instant le potentiel énorme derrière l’optimisation des résultats en fonction de l'interaction utilisateur.Il y a plusieurs moyens de réaliser ce qui précède sans impacter la qualité des résultats.
Un : vous trouveriez tout en haut des résultats la plupart de ceux qui sont pertinents ; deux : vous pourriez finalement commencer à monétiser le marché de la recherche organique, chose que le grand Google lui-même n'a pas encore réussi à faire.
Attention ! Je ne dis pas qu’il faille changer les résultats de l'index, au contraire, mais plutôt proposer les meilleurs résultats en premier, y compris des sites n'ayant aucun programme de monétisation (c.-à-d. aucun dispositif prévu de gestion des transactions commerciales). Pour autant, si vous redirigez du trafic vers Amazon, il est essentiel de le faire avec un lien affilié pour collecter à la fois les données et la commission afférentes.
1. Intégrer les programmes d’affiliation dans les résultats organiques commerciaux
Plus facile à dire qu’à faire, certes. Mais imaginons par exemple qu’un internaute recherche « Blink Malcom Gladwell Book » sur Google.
Normalement, le premier lien est celui d’Amazon. Donc, au lieu de rediriger gratuitement l’internaute vers Amazon en essayant de deviner si c’est bien là qu’il veut aller, vous le faites cliquer sur un lien affilié intégré à leur API (chose que notre serveur de catalogue réalise déjà aisément, et plutôt bien).
Là un cookie est attaché à la navigation de l’internaute et en fonction du retour d’info qu’Amazon vous renvoie, vous vérifiez si l’interaction client a bien eu lieu.
Ainsi vous pouvez améliorer vos résultats lorsque vous savez qu’au lieu de prendre son livre chez eBay, l’internaute va l’acheter chez Borders, et le moteur de recherche devient de fait un partenaire de recherche et d’achat personnalisé, ce qui devrait être l’objectif ultime de ce qu’est la recherche commerciale.
Nous savons aujourd’hui qu’eBay et Google collaborent étroitement, mais sans aucune rémunération sur les résultats organiques – imaginez un instant si les choses changeaient ?
Le concept n'est pas de construire deux index séparés, mais plutôt de réaliser des redirections affiliées pour permettre un partage des revenus en fonction des clics sur les résultats organiques correspondant à un vendeur donné.
2. Gain par clic
En assurant une traçabilité des gains au clic (contrairement au coût par clic, payé par l'annonceur, le revenu par clic est versé à l’éditeur du site – NdT) liés au taux de clic sur un mot-clé donné, les moteurs de recherche pourraient observer que le trafic sur certains de leurs résultats organiques (apporté via des programmes d’affiliation) augmente de pair avec le niveau d'interaction client et génère un rendement supérieur à celui des résultats au CPC ; ils pourraient ainsi forcer les annonceurs CPC à payer plus pour se positionner, ou alors intégrer les liens sponsorisés aux résultats organiques.
3. Bases de données de partenariats
Les moteurs de recherche pourraient et devraient commencer à développer des bases de données incluant des partenaires de recherche. Il suffirait simplement aux partenaires n’ayant aucun programme d’affiliation d’ajouter des extraits de code Javascript à leurs pages (comme Urchin, par exemple), pour permettre aux moteurs de tracer la navigation de l'internaute sur leur site.
Ce qui améliorerait considérablement la compréhension de l'interaction consommateur et augmenterait le niveau de détection par les bots/spiders.
Vous pouvez également hiérarchiser les sites Web à forts volumes de trafic en leur donnant la priorité, voire en instaurant certaines formes de rémunération ad hoc. Cela permettrait en outre d’identifier des sites hier anonymes, qui profitent généralement de leur anonymat pour pratiquer le spam ou le phishing, etc.
Conclusion
Je n'ai fait que survoler quelques-unes des innombrables possibilités offertes à notre industrie, dont certaines peuvent être considérées farfelues ou pas, mais si la formule de Snap réussit, je serais curieux de voir combien les résultats seront proches ou non des théories de cet article. Dont l’idée générale est que les moteurs de recherche devraient positionner un site Web dans leurs résultats en tenant davantage compte de son usabilité, et qu’il y a sûrement là une excellente occasion de monétiser les résultats organiques sans pour autant impacter leur pertinence. »
Qu’en pensez-vous ?
Commentaires :
- Affirmer que le coût par clic n'est qu’une étape vers le coût par action me rappelle le coût à la conversion déjà anticipé par Eric Schmidt pour donner de la profondeur au système publicitaire de Google ;
- « ...aujourd’hui eBay et Google collaborent étroitement, mais sans aucune rémunération sur les résultats organiques – imaginez un instant si les choses changeaient ? » - Nous ne devrions pas tarder à le savoir...
- Je ne suis pas particulièrement ferré sur les questions techniques, aussi j'espère que des personnes plus compétentes que moi voudront bien nous éclairer de leurs lumières...
P.S. Ressource connexe : Understanding Searcher Behavior
Tags : Internet, monétisation, ecommerce, e-commerce, recherche, moteurs, moteurs de recherche, Snap, Google, Adsense, Adwords, marketing, Web marketing, liens sponsorisés, liens affiliés, laboratoire de traduction
2 commentaires:
La théorie avancée est intéressante. Je suggèrerais d'utiliser le temps moyen passé sur la page comme critère de consommation universelle de la page... L'idée du script façon urchin pour balancer une telle info aux moteurs de recherche est d'ailleurs assez bonne si un standard sur la question émerge : je vois en effet mal les concepteurs de site écrire un js spécifique par moteur de recherche !
Bonjour Jean-Marie,
Merci pour ce billet !
Le calcul de conversion c'est vraisemblablement ce qu'a Google dans la tête avec Gbuy et l'identification des marchands utilisateurs du service sur les liens commerciaux. Time will tell :)
Enregistrer un commentaire