jeudi 22 juin 2006

Google teste et lance le cout par action sur ses Adsense !

Google teste et lance le coût par action sur ses Adsense !

Dans le sillage d'un précédent billet sur l'avenir des moteurs de recherche, présentant la traduction autorisée d'un billet de Vinny Lingham intitulé The Future of Search Engines?, où l'auteur s'avouait convaincu que le coût par clic n’était qu’une étape vers le coût par action, voilà que la réalité rattrape la prospective, puisque Google teste effectivement le CPA, ou coût par action :
Tarification fondée sur le nombre d'actions effectuées en réponse à votre annonce. Une action peut prendre la forme d'une transaction de vente, d'une acquisition de clientèle ou d'un simple clic. Également appelé coût par transaction. Le CPA peut également se rapporter au coût par acquisition.
L'info a été communiquée hier sur Internet par David Jackson, qui rapporte le message qu'il a reçu de Google :
« L'équipe Google AdSense souhaite vous inviter à tester une nouvelle fonctionnalité, qui vous permettra de générer un revenu sur votre site Web en affichant des pubs rémunérées au coût par action. Ce type de publicité présente des différences notables, puisque vous pouvez choisir parmi une sélection élargie d'une part, et vous bénéficiez d'un modèle de promotion plus souple de l'autre… »

(The Google AdSense team would like to invite you to test a feature that provides you with a new way to earn revenue from your website by hosting ads that are compensated based on a Cost-Per-Action [CPA] basis. These ads are very different in that you will be able to choose amongst a selection and you will also have more flexibility in promoting them…)
Au-delà des conséquences économiques évidentes pour tous les acteurs impliqués dans le marketing d'affiliation, certains observateurs y voient une réponse possible pour résoudre le problème de la fraude au clic (Juan Carlos Perez - IDG News Service, Miami : an ad model that in theory isn’t vulnerable to click fraud), là où d'autres pensent qu'à terme ça va dans le sens d'une plus grande pertinence des résultats (Vinny Lingham : I suspect that Google may start using the data in the CPA Ads to assist in determining relevancy at some point in time, not now but at least it's moving closer to it.)

Par ailleurs, ce dernier va plus loin puisqu'il nous met en garde contre les fraudes éventuelles liées à ce nouveau modèle :
  1. Vous montez un site (Setup a site)
  2. Vous y affichez la pub (Put up the ads)
  3. Vous cliquez sur l'Adsense sur votre propre site, aucune fraude au clic détectable (Click the ads on their own site - no click fraud)
  4. Vous achetez le produit/service en utilisant un carte bancaire volée (Purchase using the stolen credit card)
  5. Vous encaissez le chèque de Google pour les achats effectués, la rémunération au coût par action rapportant bien plus que quelques clics, puisque vous avez un faible taux de clic pour un fort taux de conversion, d'où aucune fraude au clic détectable (Receive a check from Google for purchases on a CPA basis - alot more than a few clicks, because now the clicks are low, but the conversions are high - so no click fraud)
  6. Vous recevez - ou pas - le produit/service acheté (Receive the goods, or not)
  7. Le vendeur en est de sa poche puisqu'il doit payer les frais bancaires tout en ayant perdu le produit/service expédié (Merchant receives chargebacks and is out of pocket for both the credit card charges & the goods.)
Et Vinny de conclure :
Ce n'est là qu'un scénario possible, mais je pourrais vous en proposer des dizaines d'autres !

Un scénario dicté par mon expérience dans le monde du marketing d'affiliation, vu les types de fraudes qui se produisent dans les réseaux d'affiliés. À mon avis, la méthode du CPA ne peut marcher que sur les sites de la galaxie Google et sur quelques sites à très fort trafic de partenaires soigneusement sélectionnés, n'ayant aucun intérêt à frauder. Par contre, si ce système touche un plus vaste public, ça va vite devenir problématique.

(That's one scenario, and I could go into dozens more!

This knowledge really comes from experience in the affiliate marketing world as to the fraud that occurs on the affiliate networks. The CPA method in my opinion would only work on Google's own site and selected high volume partners, as they have no incentive to commit fraud - the moment it's opened up to the broader public, it's becomes problematic.)
En tout cas, au moment où de plus en plus d'observateurs s'interrogent sur l'avenir de la recherche et ses modèles économiques, le lancement par Google du coût par action sur ses Adsense risque de provoquer bien des remous, et je suis sûr de ne pas me tromper en affirmant que nous n'avons pas fini d'en parler...


Lien connexe : La dérive publicitaire sur Internet : les incohérences de Google (entre autres)...

Autres ressources en français : Moteurs News, Orénoque, fil de discussion sur WebRankInfo

Tags : , , , , , , , , , , , , , , , , , , ,

Bidonnage aux noms de domaines : Bob Parsons en remet une couche

Bidonnage aux noms de domaines : Bob Parsons en remet une couche

C'est en train de devenir une chronique mensuelle : dans son dernier billet, publié hier, Domain kiting rages out of control..., Bob Parsons nous dit que sur 35 millions de domaines enregistrés au mois de mai, 92,3 % d'entre eux n'avaient pour but que le domain kiting, soit 32,3 millions de noms qui représentent près de la moitié des domaines actifs sur Internet (chiffres actualisés au 21 juin 2006) :


Des statistiques en phase avec celles du mois d'avril (+32 millions de noms), qui s'ajoutent pour nous donner la somme modique de +64 millions de domaines en deux mois qui exploitent le modèle j'essaie - je prends/je jette. C'est ÉNOOORME !

Pour vous donner un ordre de comparaison, selon des estimations rapportées dans un article de la Tribune à propos de l'extension française en .fr enfin accessible aux particuliers : « Les experts tablent sur le dépôt de 500.000 nouveaux noms de domaine d'ici deux ans. » !!! Ils ont vraiment le sens de la (dé)mesure à l'AFNIC. « L'internet en confiance », qu'ils disent...

Et c'est bien le cas de dire. Comme le Président de Godaddy l'affirme, ce phénomène a désormais un nom, et c'est un excellent début (So the problem now has a name – and that’s an excellent start!), il suffit de googler pour s'en rendre compte :



Il n'empêche ! Je veux bien qu'on l'accuse de travailler à sa réputation et qu'il ne soit pas sans reproches, mais quand même ! Ce qui m'étonne le plus, dans cette histoire, c'est que j'ai l'impression qu'il est seul à crier dans le désert et que les principales instances concernées, c'est-à-dire celles qui pourraient vraiment intervenir, continuent à faire ce qu'elles savent faire le mieux : RIEN (ICANN is doing what they do best — nothing!), et à se taire (I also find it incredibly interesting that VeriSign — who operates the .COM registry — has chosen to remain spooky quiet on the issue of domain kiting as well), vu les implications économiques en jeu, considérables.

Seuls ici et là un article ou un rapport semblent prendre la mesure du désastre, mais il serait peut-être bon que l'ICANN inscrive la question dans son ordre du jour de la conférence de Marrakech, qui se tiendra la semaine prochaine, précisément du 24 au 30 juin. J'en doute, mais sait-on jamais ? Quoi qu'il en soit, ils ne pourront plus dire qu'ils l'ignoraient ! Car s'ils continuent comme ça, l'Internet pour tous, c'est pas pour demain, et le développement de l'Internet et sa gouvernance ont encore un long, long, très long chemin à faire...




Tags : , , , , , , ,

mardi 20 juin 2006

Connaissez-vous le score de probabilité d'effacement ?

Connaissez-vous le score de probabilité d'effacement ?

C'est le concept au centre du brevet n° 20060129534, déposé et obtenu par Yahoo qui s'intitule :
System and methods for ranking the relative value of terms in a multi-term search query using deletion prediction

Système et procédés servant à déterminer la valeur relative des termes d'une requête multi-termes grâce à un indice prédictif d'effacement
Résumé :
The likely relevance of each term of a search-engine query of two or more terms is determined by their deletion probability scores. If the deletion probability scores are significantly different, the deletion probability score can be used to return targeted ads related to the more relevant term or terms along with the search results. Deletion probability scores are determined by first gathering historical records of search queries of two or more terms in which a subsequent query was submitted by the same user after one or more of the terms had been deleted. The deletion probability score for a particular term of a search query is calculated as the ratio of the number of times that particular term was itself deleted prior to a subsequent search by the same user divided by the number of times there were subsequent search queries by the same user in which any term or terms including that given term was deleted by the same user prior to the subsequent search. Terms are not limited to individual alphabetic words.

La pertinence probable de chacun des termes d'une requête de deux ou plusieurs termes est déterminée par leur score de probabilité d'effacement. Lorsque ces termes ont des scores sensiblement différents, le score de probabilité d'effacement peut être utilisé pour proposer au navigateur des résultats contenant des pubs contextuelles ciblées sur le ou les termes plus pertinent(s). Ces scores sont d'abord déterminés en analysant l'historique des logs du moteur relatifs à deux ou plusieurs termes dont un même utilisateur en a effacé un ou plusieurs lors d'une requête successive. Pour fixer le score de probabilité d'effacement d'un terme donné sur une requête précise, on calcule le rapport suivant : au numérateur, le nombre de fois que ce terme a été effacé avant la requête successive par un même utilisateur ; au dénominateur, le nombre de requêtes successives effectuées par ledit utilisateur où il a effacé un ou plusieurs termes contenant le terme donné avant de passer à la recherche suivante. Il est entendu que la parole "termes" ne se limite pas aux mots alphabétiques.
C'est clair ? Non ! Bon, alors voyons un exemple pratique sur le terme Honda.
  • Analyser les fichiers de log du moteur sur les requêtes à deux termes, en isolant toutes celles dont l'un des termes est Honda, le deuxième pouvant être n'importe lequel.
  • Identifer quels sont les internautes qui ont fait plusieurs recherches dont la première contenait Honda + un autre terme et ont effacé ensuite l'un de ces deux termes lors de recherches successives.
  • Pour définir le score de probabilité d'effacement relatif à Honda, compter le nombre de fois qu'un internaute a effacé l'un des deux termes du bigramme contenant Honda lors de recherches successives : disons que cela s'est produit 6 059 fois dans le cas de notre exemple. Calculer ensuite le nombre de fois où Honda a été effacé : 1 874 fois.
  • Mettre 1 874 au numérateur et 6 059 au dénominateur, ce qui nous donne un score de probabilité d'effacement pour Honda de 0,31 sur une requête bi-termes.
D'autres méthodes statistiques, telles que le lissage des données, peuvent aussi être utilisées pour calculer cet indice, appliqué ensuite pour déterminer un score de pertinence (relevance score) des termes d'une requête, avec une pondération alternative, soit des termes effacés (deletion probability of deleted term) soit des termes conservés (deletion probability of kept term) : lorsque ce score est supérieur à un seuil numérique prédéterminé, cela signifie que l'un des termes de la requête est plus pertinent que l'autre, d'où un impact à la fois sur les résultats du moteur proposés à l'internaute et sur le ciblage des pubs et autres liens sponsorisés.

L'estimation de probabilité maximale (Maximum Likelihood Estimate) permet en outre de déterminer la valeur relative des termes d'une requête donnée en établissant différentes listes :
  1. de probabilité d'effacement (Deletion Probability List)
  2. de phrases (Phrases List)
  3. de pubs (Ads List)
  4. d'exceptions (Exception List)
Les listes d'exceptions ont une fonction de filtrage pour mieux cibler l'affichage des résultats et des liens publicitaires.

Sources : Cre8asiteforums.com & Seroundtable.com

Commentaires :

1. L'idée d'origine est qu'on peut restreindre le champ d'une recherche en éliminant un terme après l'autre d'une requête multi-termes sur laquelle on n'obtient aucun résultat jusqu'à ce qu'on en obtienne un : « Queries with no matches can have words deleted till a match is obtained. » Cette phrase est extraite du résumé d'une étude d'Overture, signée par les inventeurs du brevet, qui fut probablement disponible sur le laboratoire de recherche de Yahoo mais dont on ne trouve plus trace aujourd'hui que dans le cache de Google : Query Word Deletion Prediction. La lecture de ce papier est très intéressante, en ce qu'elle explique la genèse du concept à la base du présent brevet.

2. Au-delà de cette technologie, qui se propose d'affiner la monétisation par un meilleur ciblage promotionnel, il est clair que cela impactera aussi les résultats proposés par Yahoo dans un premier temps, et aura en outre des retombées probables dans un futur plus ou moins proche pour les autres moteurs de recherche...



P.S. À noter qu'un autre brevet, le n° 20060129910, déposé pour Google à la même date que celui de Yahoo, semble décrire la fonction Autolink de Google, qui avait fait en son temps l'objet de critiques et de protestations. Il s'intitule « Providing useful information associated with an item in a document » (Fournir des informations utiles associées à un élément contenu dans un document). Via SEO by the SEA.

[MàJ - 23 juin 2006] Suite de mon P.S. : après avoir initialement fait observer à Bill Slawski que les deux brevets portaient les mêmes dates, il s'en est suivi un échange de messages fructueux, qui a débouché hier sur la publication d'un article de Bill intitulé Mining Searchers’ Queries for Information (du genre : dépouiller les requêtes des internautes pour en extraire des informations), où il retrace l'historique des études connexes, documents à l'appui. Excellente recherche, vraiment un travail de qualité. Bravo Bill !

Voici les premières lignes :
Search engines, and the people who constantly improve and update them are getting smarter and smarter when it comes to finding ways to make the results of those search engines more relevant.
One area they are paying more attention to is in search engine log files, watching how searchers interact with the search engines. I wanted to do some more research on how researchers might be looking at queries, and collected some citations to a number of pages involving that type of research.
This is by no means the canonical list of search engine/user behavior papers, but it’s a start…

(Les moteurs de recherche, de même que les gens chargés de constamment les améliorer et les actualiser, font preuve de toujours plus d'intelligence lorsqu'il s'agit de trouver des moyens de rendre les résultats des moteurs plus pertinents.
L'un des secteurs qu'ils analysent de plus près est celui des fichiers de log pour étudier comment les internautes interagissent avec les moteurs. Voulant en savoir plus sur la façon dont les analystes tirent profit des requêtes des internautes, j'ai rassemblé ici un certain nombre de documents qui abordent ce type de recherches.
Ce n'est certes pas la liste absolue de toutes les études traitant de l'interaction internautes/moteurs de recherches, mais c’est un début…)
Je vous laisse découvrir le reste, en anglais. Une fois n'est pas coutume, je vais même aller contre mes convictions et mes intérêts, mais si vous avez des difficultés avec la langue de Shakespeare, suivez ce lien... Après ça, vous comprendrez mieux pourquoi la traduction automatique a encore des progrès à faire !

Tags : , , , , , , , , , , , , , , , ,

lundi 19 juin 2006

MySpace met GYM sur les rangs : qui sera le mieux-disant ?

MySpace met GYM sur les rangs : qui sera le mieux-disant ?

Voilà déjà plusieurs semaines que les rumeurs enflent autour de MySpace. À première vue il semblait que Yahoo était hors-jeu et que la lutte n'aurait concerné que Google et Microsoft. Or comme je l'analysais récemment dans un article consacré au repositionnement des principaux acteurs de l'Internet :
À l'intuition, je dirais juste que tout n'est peut-être pas encore joué, vu que Murdoch aime beaucoup l'argent et que Microsoft a beaucoup d'argent. Ne jamais sous-estimer la cupidité dans les affaires. Mais bon, Google a les poches pleines aussi, suffisamment en tout cas pour satisfaire l'appétit du patron de MySpace, qui ne va pas se priver de faire levier sur sa position confortable pour faire monter les enchères de tout accord éventuel. D'ailleurs l'action de News Corp. est en hausse ces derniers jours, un signe qui ne trompe généralement pas...
Ça n'a pas manqué, et même Yahoo! serait repêché ! Par ailleurs il est probable que ces enchères ne concerneront que la fonction recherche sur MySpace, qui croît quand même à un rythme soutenu, le moins qu'on puisse dire : plus de 51 millions de visiteurs uniques aux États-Unis le mois dernier, 240 000 nouveaux utilisateurs par jour (via TechCrunch), avec à la clé, j'imagine, l'exclusivité pour le moteur adjudicataire et un modèle économique à inventer (voir ici une orientation). Ou bien on ne voit pas pourquoi Murdoch continuerait à investir dans des opérations complémentaires...

Quoi qu'il en soit, il a d'ores et déjà réalisé une excellente opération financière, certains de ses dirigeants n'hésitant pas à évaluer la société à ... 3 milliards $ ! (contre un peu moins de 600 millions $ à l'achat, il n'y a pas un an) : comme l'observe le toujours très attentif Didier Durand, « le contenu généré par l'utilisateur (UGC, ou user-generated-content), pourrait bien lui rapporter gros » ! Espérons-le pour lui, car pour se payer l'Internet (cf. Rupert Murdoch sur son blog MySpace :

J'ai acheté MySpace.com il y a peu, mais je ne vais pas tarder à posséder tout l'Internet !)
il a encore du chemin à faire... En attendant, il prévoit déjà d'internationaliser MySpace en localisant sa plate-forme en 11 langues : après les États-Unis et la Grande-Bretagne, les premiers pays identifiés seraient la France, l'Allemagne, puis à venir la Chine et l'Inde...




Create polls and vote for free. dPolls.com


P.S. À la fin, ce qui est sûr, c'est qu'on aura un mieux-disant et deux médisants... :-) (à moins que d'autres s'invitent à la noce, Ask par exemple !)

Résultats définitifs au 19 juillet 2006 sur 65 votants :


Lien connexe : Google s'adjuge la recherche sur MySpace pour 900 millions $

Tags , , , , , , , , , ,

samedi 17 juin 2006

L'avenir des moteurs de recherche : interaction-consommateur et monétisation des résultats organiques

L'avenir des moteurs de recherche : interaction-consommateur et « monétisation » des résultats organiques ?

Il y a quelques jours, à l'occasion de la rédaction d'un billet sur les stratégies pour les moteurs de recherche, j'ai découvert une personnalité du Web dont on entendra beaucoup parler, j'en suis sûr. Il s'appelle Vinny Lingham, il a tout juste 27 ans, c'est un champion d'échecs et un génie des maths et il est déjà à la tête de plusieurs Web-entreprises sur lesquelles j'aurai l'occasion de revenir.

J'ai appris beaucoup de choses en lisant ses articles, mais il y en a un qui m'a particulièrement impressionné par les idées qu'il développe. Publié le 15 novembre 2005, il pourrait bien s'avérer « prophétique » à plusieurs égards... Son approche est 100% axée business, mais qu'on le veuille ou non, c'est probablement la dimension qui influencera le plus nos expériences d'internautes dans le futur, pour le meilleur et pour le pire. C'est un billet plutôt technique, mais expliqué en termes simples, ce qui fait que même un profane comme moi a réussi à en saisir le sens. Enfin, j'espère ! Il s'intitule The Future of Search Engines? et en voici la traduction autorisée :

L'avenir des moteurs de recherche

« D’une manière générale, je crois que les moteurs de recherche doivent sérieusement s’interroger sur : 1) quelles sont les motivations qui poussent les internautes à chercher sur le Web, et 2) comment maximiser leurs revenus, afin de créer un cycle vertueux : plus vous gagnez d’argent grâce aux requêtes d’utilisateurs satisfaits, plus le cycle tend à se répéter et ainsi de suite. S’ils veulent vraiment concurrencer Google, les moteurs de recherche émergents (A9, MSN, etc.) devront mieux appréhender en amont les facteurs qui impulsent leurs revenus (réels ou planifiés), et appliquer ces facteurs au développement de leurs services pour pouvoir pénétrer plus profondément la psychologie des consommateurs (et leurs portefeuilles par la même occasion).

Je crois en une fusion potentielle du coût par clic (CPC) et de la recherche organique, où les moteurs proposeraient des liens aux revenus partagés.

Les risques de fraude aux clics, véritable plaie pour les annonceurs, pourraient ainsi être éliminés grâce au partage des revenus. Le fait que le coût au clic continue de grimper est un signal que les annonceurs sous-paient leur trafic sur les moteurs fournissant des résultats CPC, ce qui permet à des agents d’affiliation tels que nous de gagner beaucoup d’argent en faisant un travail d'arbitrage.

Voici une stratégie alternative pour les moteurs :

John Battelle
a défini dans son livre, Search, les 3 clés de voûte d'un moteur :

1. L’indexation par robots
2. L'index
3. L'interface utilisateur


Or à mon avis il y en a une quatrième : l'interaction consommateur.

Les sites Web et les résultats de piètre qualité tendent à générer plus de recherches semblables et moins de revenus par utilisateur. Donc en assurant un suivi de l'interaction entre l’utilisateur et un site Web, vous pouvez augmenter à la fois la qualité des résultats et les revenus du moteur. Les acteurs majeurs de la recherche ne passent pas assez de temps à étudier les statistiques post-conversions générées par les résultats organiques, or c’est là une occasion en or d’extraire des pépites d’un vaste gisement d’informations largement inexploité par l'industrie des moteurs.

(…)

Pour mieux comprendre l'interaction consommateur, il faut distinguer les intentions de trafic de l'utilisateur entre intentions commerciales et non-commerciales.

Je vais me concentrer sur les résultats de la recherche organique répondant à une logique commerciale, mais ces principes d’usabilité peuvent également s'appliquer aux résultats de nature non-commerciale.

Si un suivi de la qualité des sites Web indexés par un moteur était assuré en tenant compte de l'interaction utilisateur par rapport au mot-clé recherché, vous verriez que tous les résultats produits par le spam de moteur
(technique de positionnement d’un site dans les résultats des moteurs sur des quantités de mots-clés non pertinents – NdT) seraient rapidement et organiquement relégués tout au fond des résultats.

Or le spam de moteur est quasi-identique au spam de courriel : gros volumes, faibles taux de conversion et beaucoup d’énervement.

Le trafic normal se positionnerait indépendamment du spam, en fonction de l'expérience utilisateur sur un mot-clé donné. Pour autant, positionnement indépendant ne signifie pas nécessairement non-monétisation du trafic organique.

Il fut un temps où Inktomi générait des résultats organiques « Trusted Feed »
(système automatisé permettant de soumettre aux moteurs des données complémentaires - NdT), mais le problème c’est que les annonceurs n’avaient aucun contrôle sur les mots-clés pour lesquels ils payaient.

Le marché est passé ensuite au CPC, même si je suis convaincu que le coût par clic n’est qu’une étape vers le coût par action, l’outil d’analyse dont se servent les marketeurs intelligents qui vendent du CPC.

À l’heure actuelle, Snap essaie de mettre en place la plupart des solutions décrites ici, mais je ne crois pas qu'ils connaissent suffisamment l'espace marketing de l'affiliation pour mener à terme une telle stratégie, ou alors il leur faudrait des années pour nouer des relations directes avec chaque site Web.

Le point central consiste plutôt à réaliser une plate-forme ad hoc et s’en servir pour développer des opportunités d’affaires. Vu le taux de croissance de Google, les moteurs de recherche concurrents tels que Yahoo auraient besoin d’une stratégie de pointe robuste pour inverser la tendance, or je suis convaincu qu'une telle stratégie réside dans « l'interaction consommateur ».

Le PageRank est mort.

Les liens deviennent de moins en moins importants, vu l’émergence des fils RSS. Les sites Web ne pointent plus les uns vers les autres, ils en syndiquent le contenu sur leur propre site.

Beaucoup des résultats de Google sont générés par du spam de moteur, qui résulte la plupart du temps de la duplication de contenu des fils de syndication : peut-on encore se fier à l’indice de popularité des liens ? L'utilisation des liens entrants pour déterminer l'autorité d’un site commence à décliner et s’érodera toujours plus.

Un autre problème avec les liens est qu’en utilisant les CSS, dont la reconnaissance n’est arrivée qu’après le PageRank, il suffit de mettre un seul lien sur votre site Web et de le propager dans tout le site de façon totalement transparente.

Il est notoire que les spammeurs de moteur achètent des liens PR9 et PR10 pour augmenter leur PageRank.

Donc, en qui pouvons-nous avoir confiance ?

Et pourquoi ne pas laisser le client décider ce qu'il juge plus pertinent et adéquat...

Imaginez le scénario suivant :
Un utilisateur recherche « DVD de Star Wars » dans Google. Les trois premiers résultats sont Amazon, Buy.com e eBay. Pour l’instant, vous ne savez pas chez lequel des 3 l'internaute va acheter son DVD. Or c'est là une info cruciale absente de votre base de données : imaginez un instant le potentiel énorme derrière l’optimisation des résultats en fonction de l'interaction utilisateur.

Un : vous trouveriez tout en haut des résultats la plupart de ceux qui sont pertinents ; deux : vous pourriez finalement commencer à monétiser le marché de la recherche organique, chose que le grand Google lui-même n'a pas encore réussi à faire.

Attention ! Je ne dis pas qu’il faille changer les résultats de l'index, au contraire, mais plutôt proposer les meilleurs résultats en premier, y compris des sites n'ayant aucun programme de monétisation (c.-à-d. aucun dispositif prévu de gestion des transactions commerciales). Pour autant, si vous redirigez du trafic vers Amazon, il est essentiel de le faire avec un lien affilié pour collecter à la fois les données et la commission afférentes.
Il y a plusieurs moyens de réaliser ce qui précède sans impacter la qualité des résultats.

1. Intégrer les programmes d’affiliation dans les résultats organiques commerciaux

Plus facile à dire qu’à faire, certes. Mais imaginons par exemple qu’un internaute recherche « Blink Malcom Gladwell Book » sur Google.

Normalement, le premier lien est celui d’Amazon. Donc, au lieu de rediriger gratuitement l’internaute vers Amazon en essayant de deviner si c’est bien là qu’il veut aller, vous le faites cliquer sur un lien affilié intégré à leur API (chose que notre serveur de catalogue réalise déjà aisément, et plutôt bien).

Là un cookie est attaché à la navigation de l’internaute et en fonction du retour d’info qu’Amazon vous renvoie, vous vérifiez si l’interaction client a bien eu lieu.

Ainsi vous pouvez améliorer vos résultats lorsque vous savez qu’au lieu de prendre son livre chez eBay, l’internaute va l’acheter chez Borders, et le moteur de recherche devient de fait un partenaire de recherche et d’achat personnalisé, ce qui devrait être l’objectif ultime de ce qu’est la recherche commerciale.

Nous savons aujourd’hui qu’eBay et Google collaborent étroitement, mais sans aucune rémunération sur les résultats organiques – imaginez un instant si les choses changeaient ?

Le concept n'est pas de construire deux index séparés, mais plutôt de réaliser des redirections affiliées pour permettre un partage des revenus en fonction des clics sur les résultats organiques correspondant à un vendeur donné.

2. Gain par clic

En assurant une traçabilité des gains au clic
(contrairement au coût par clic, payé par l'annonceur, le revenu par clic est versé à l’éditeur du site – NdT) liés au taux de clic sur un mot-clé donné, les moteurs de recherche pourraient observer que le trafic sur certains de leurs résultats organiques (apporté via des programmes d’affiliation) augmente de pair avec le niveau d'interaction client et génère un rendement supérieur à celui des résultats au CPC ; ils pourraient ainsi forcer les annonceurs CPC à payer plus pour se positionner, ou alors intégrer les liens sponsorisés aux résultats organiques.


3. Bases de données de partenariats

Les moteurs de recherche pourraient et devraient commencer à développer des bases de données incluant des partenaires de recherche. Il suffirait simplement aux partenaires n’ayant aucun programme d’affiliation d’ajouter des extraits de code Javascript à leurs pages (comme Urchin, par exemple), pour permettre aux moteurs de tracer la navigation de l'internaute sur leur site.

Ce qui améliorerait considérablement la compréhension de l'interaction consommateur et augmenterait le niveau de détection par les bots/spiders.

Vous pouvez également hiérarchiser les sites Web à forts volumes de trafic en leur donnant la priorité, voire en instaurant certaines formes de rémunération ad hoc. Cela permettrait en outre d’identifier des sites hier anonymes, qui profitent généralement de leur anonymat pour pratiquer le spam ou le phishing, etc.

Conclusion

Je n'ai fait que survoler quelques-unes des innombrables possibilités offertes à notre industrie, dont certaines peuvent être considérées farfelues ou pas, mais si la formule de Snap réussit, je serais curieux de voir combien les résultats seront proches ou non des théories de cet article. Dont l’idée générale est que les moteurs de recherche devraient positionner un site Web dans leurs résultats en tenant davantage compte de son usabilité, et qu’il y a sûrement là une excellente occasion de monétiser les résultats organiques sans pour autant impacter leur pertinence. »



Qu’en pensez-vous ?

Commentaires :
  1. Affirmer que le coût par clic n'est qu’une étape vers le coût par action me rappelle le coût à la conversion déjà anticipé par Eric Schmidt pour donner de la profondeur au système publicitaire de Google ;
  2. « ...aujourd’hui eBay et Google collaborent étroitement, mais sans aucune rémunération sur les résultats organiques – imaginez un instant si les choses changeaient ? » - Nous ne devrions pas tarder à le savoir...
  3. Je ne suis pas particulièrement ferré sur les questions techniques, aussi j'espère que des personnes plus compétentes que moi voudront bien nous éclairer de leurs lumières...

P.S. Ressource connexe : Understanding Searcher Behavior

Tags : , , , , , , , , , , , , , , ,

mercredi 14 juin 2006

Blog Teflon ou blog addictif : longue traine et valeur ajoutee

Blog Teflon® ou blog addictif : longue traîne et valeur ajoutée

Certains billets ont plus de valeur que d'autres. Des billets qui jouent davantage sur le registre de l'affectif pour moi qui les écris que pour vous qui les lisez - ou pas, en leur préférant des articles factuels. Mais bon, je suis pas journaliste ! Le propre d'un blog, c'est ça aussi, se sentir libre de dire ce qu'on veut (plus ou moins :-).

Le 100e billet publié, billet-bilan par excellence, est indubitablement l'un de ceux-là. Il en va de même pour le premier et, sans aucun doute, pour le dernier... Probable que le jour viendra, mais hic et nunc j'espère le plus tard possible !

Vous me direz, cent billets depuis mars 2005, tu t'es pas foulé le poignet. En fait, la rédaction de ce blog se répartit de la façon suivante : 1/5e des billets publiés en mars 2005 (voir un petit récapitulatif), 10 mois d'interruption pour cause de boulot intense (gros projets les uns à la suite des autres), et les 4/5e restants depuis janvier, ce qui représente grosso modo 80 billets en 5 mois, accompagnés d'un début d'audience pour ce blog :


Pour la première fois, j'ai dépassé les 100 abonnés à mon fil (Atom) grâce à mon dernier article sur la dérive publicitaire sur Internet et le double langage de Google. Je sais bien que ce chiffre est très fluctuant et qu'il suffit que je ne publie pas pendant quelques jours pour qu'il tombe au ras des pâquerettes, mais quand même, franchir le cap des 100 lectrices et lecteurs pour le 100e billet, c'est bon signe, qu'en pensez-vous ?

Question bilan, disons que je suis satisfait du dialogue qui s'instaure avec vous qui me faites l'amitié de me rendre visite, qu'en 5 mois mon blog est passé de PR0 à PR3 (ça fera sourire les professionnels qui ne vous jettent qu'un coup d'œil distrait en dessous de PR5), que j'ai même un billet historique PR6 !!! (rectius : probablement la Google Dance, il n'est plus que PR4, mais reste par ailleurs à l'origine d'une belle aventure), et que mon blog ressort presque toujours très bien positionné dans les résultats des moteurs, sur pratiquement tous les sujets que j'aborde. C'est donc encourageant.

Maintenant, vu que je préfère me tourner vers l'avenir plutôt que vers le passé, que dire de l'évolution d'Adscriptor telle que je peux l'imaginer aujourd'hui ?

[ ERREUR DE TIMING : j'ai cliqué par inadvertance sur PUBLIER, et c'est parti tout seul. À mon avis Blogger devrait proposer une confirmation, ça éviterait ce genre de désagrément. Bon, et bien il ne me reste plus qu'à rédiger la deuxième partie du billet, que j'avais prévu de publier ... ce soir, patience donc ! ]

* * *

[MàJ - 22h, 2e partie]

Un billet lu il y a quelques jours sur le blog de Performancing m'a fait réfléchir à la question. Signé Chris Garrett et publié sous licence Creative Commons, je vous en propose une synthèse :
Ce matin, en tombant sur un blog photo dans mon fil de syndication, j'ai été saisi par une évidence, à savoir que le concept de composition photographique est assez proche de la façon de bloguer. Attendez que je vous explique, ç'est peut-être moins étrange que ça en a l'air. J'espère.

Le point central du billet, c'est d'ajouter des couches d’intérêt. Un bon conseil pour la photo, qui selon moi vaut également pour les blogs. En photographie, on vous apprend à focaliser un objet dont l'intérêt pourra capter celui de votre audience. En y ajoutant des zones supplémentaires d'intérêt, vous pouvez retenir plus longtemps vos visiteurs et générer davantage de valeur dans la durée. L'alternative étant de proposer une image superficielle, un visuel eye-candy, où tout est dans l’apparence, un plaisir évanescent qu’on oublie dans la seconde. Or dans l'art, la plupart des chefs-d'œuvre qui ont traversé l'histoire peuvent être contemplés à l’infini, on ne s’en lasse jamais.

Idem pour les blogs, il faut trouver quelque chose pour capturer l'intérêt de son audience, quelque chose d'utile ou qui fascine, le but étant d'abord se faire remarquer, puis de retenir l'attention. Plusieurs scénarios possibles :
  • Un titre accrocheur ou un linkbait qui aimante l’attention de vos visiteurs
  • Un premier article pour les capter et leur river l’œil à l'écran
  • Des archives riches en substance pour leur montrer qu’il y en a aussi sous le vernis
  • Des billets porteurs et pertinents pour alimenter vos fils quotidiens, RSS ou autres
Ou que se passe-t-il si le lecteur appâté par votre accroche arrive sur un billet dépourvu d’intérêt ? Ou encore s’il ne trouve qu’un seul article digne de ce nom égaré dans un blog bonace, plat comme une mer d’huile.
(mes origines bretonnes qui remontent :-)

Un super article, et puis plus rien. Voilà ce que j’appelle un blog Teflon®.
Aucune rétention de vos visiteurs, même s’il y a différents degrés de rétention, avec deux pôles extrêmes : le blog Teflon® d'un côté, et le blog hyper-addictif de l’autre, il nous faut notre ration quotidienne…

Quant à publier un seul billet qui impacte, cela se traduit par un pic de trafic qui ne sera plus jamais atteint, alors que ce qu’on veut ce sont des statistiques en constante amélioration, une belle courbe d’évolution qui monte, grâce à de nombreux billets qui font mouche
(la mouche, c’est excellent pour la pêche… NdT), pour un double gain : fidélisation de votre lectorat et diffusion du bouche-à-oreille…
Voilà. Ce que j’aime avec les anglo-saxons quand ils parlent de marketing, c’est qu’à les lire on a l’impression qu’ils débitent des évidences les unes à la suite des autres, mais au moins ils ont le mérite de les dire, de les rédiger, les conceptualiser, et ce qu’on avait dans la tête de façon un peu confuse prend forme et clarté sous nos yeux de lecteurs.

Ce billet m’amène plusieurs réflexions :
  • D’abord, trouver un juste milieu entre les deux extrémités signalées ci-dessus, en opposant la longue traîne des blogs à l’instantanéité du blog Teflon®. Par exemple, mes statistiques me révèlent que les billets écrits en mars 2005 ne sont presque jamais lus, ce que je trouve dommage. À mon avis, un sujet tel que les travailleurs de la connaissance est toujours d’actualité, même si aujourd’hui il vaudrait peut-être mieux nous qualifier de travailleurs de l’information.
    Toujours à propos de longue traîne, l'indexation complète de ce blog par Atomz donne aujourd'hui 111 pages indexées pour un total de 308 706 mots. Ça fait quand même de la lecture ! D'ailleurs, s'il y a des téméraires, j'ai tout regroupé en un seul PDF de presque 15 Mo et 900 pages, il suffit de demander...
  • À l’opposé, plutôt que de pondre un billet tous les jours au risque de finir par publier n’importe quoi, je préfère écrire moins et fouiller un peu plus mes analyses. Pour moi la valeur ajoutée de ce blog, ce sont mes analyses. Je ne veux pas dire par là qu’elles sont irréprochables, au contraire, mais je peux vous assurer qu’elles sont personnelles, et documentées autant que faire se peut. Avec le plus de liens possibles en complément, conseil toujours valable, pas question d’être auto-référentiel (néologisme emprunté à l’italien qui signifie qu’on ne fait référence qu’à soi-même, or à l’instar de la gare de Perpignan, seul Dali pouvait se croire le centre du monde, et encore…). Juste pour donner un exemple, aux antipodes de l’Atelier, 100% nombriliste (essayez de trouver dans leurs articles un seul lien qui ne pointe pas vers… l’Atelier !), ma bête noire depuis un fâcheux épisode que je ne suis pas prêt d’oublier.
Pour conclure, mon métier de rêve : profession, blogueur. Ça manque à ma panoplie, mais je désespère pas de l’y accrocher un jour…



Tags : , , , , , , , ,