samedi 17 juin 2006

L'avenir des moteurs de recherche : interaction-consommateur et monétisation des résultats organiques

L'avenir des moteurs de recherche : interaction-consommateur et « monétisation » des résultats organiques ?

Il y a quelques jours, à l'occasion de la rédaction d'un billet sur les stratégies pour les moteurs de recherche, j'ai découvert une personnalité du Web dont on entendra beaucoup parler, j'en suis sûr. Il s'appelle Vinny Lingham, il a tout juste 27 ans, c'est un champion d'échecs et un génie des maths et il est déjà à la tête de plusieurs Web-entreprises sur lesquelles j'aurai l'occasion de revenir.

J'ai appris beaucoup de choses en lisant ses articles, mais il y en a un qui m'a particulièrement impressionné par les idées qu'il développe. Publié le 15 novembre 2005, il pourrait bien s'avérer « prophétique » à plusieurs égards... Son approche est 100% axée business, mais qu'on le veuille ou non, c'est probablement la dimension qui influencera le plus nos expériences d'internautes dans le futur, pour le meilleur et pour le pire. C'est un billet plutôt technique, mais expliqué en termes simples, ce qui fait que même un profane comme moi a réussi à en saisir le sens. Enfin, j'espère ! Il s'intitule The Future of Search Engines? et en voici la traduction autorisée :

L'avenir des moteurs de recherche

« D’une manière générale, je crois que les moteurs de recherche doivent sérieusement s’interroger sur : 1) quelles sont les motivations qui poussent les internautes à chercher sur le Web, et 2) comment maximiser leurs revenus, afin de créer un cycle vertueux : plus vous gagnez d’argent grâce aux requêtes d’utilisateurs satisfaits, plus le cycle tend à se répéter et ainsi de suite. S’ils veulent vraiment concurrencer Google, les moteurs de recherche émergents (A9, MSN, etc.) devront mieux appréhender en amont les facteurs qui impulsent leurs revenus (réels ou planifiés), et appliquer ces facteurs au développement de leurs services pour pouvoir pénétrer plus profondément la psychologie des consommateurs (et leurs portefeuilles par la même occasion).

Je crois en une fusion potentielle du coût par clic (CPC) et de la recherche organique, où les moteurs proposeraient des liens aux revenus partagés.

Les risques de fraude aux clics, véritable plaie pour les annonceurs, pourraient ainsi être éliminés grâce au partage des revenus. Le fait que le coût au clic continue de grimper est un signal que les annonceurs sous-paient leur trafic sur les moteurs fournissant des résultats CPC, ce qui permet à des agents d’affiliation tels que nous de gagner beaucoup d’argent en faisant un travail d'arbitrage.

Voici une stratégie alternative pour les moteurs :

John Battelle
a défini dans son livre, Search, les 3 clés de voûte d'un moteur :

1. L’indexation par robots
2. L'index
3. L'interface utilisateur


Or à mon avis il y en a une quatrième : l'interaction consommateur.

Les sites Web et les résultats de piètre qualité tendent à générer plus de recherches semblables et moins de revenus par utilisateur. Donc en assurant un suivi de l'interaction entre l’utilisateur et un site Web, vous pouvez augmenter à la fois la qualité des résultats et les revenus du moteur. Les acteurs majeurs de la recherche ne passent pas assez de temps à étudier les statistiques post-conversions générées par les résultats organiques, or c’est là une occasion en or d’extraire des pépites d’un vaste gisement d’informations largement inexploité par l'industrie des moteurs.

(…)

Pour mieux comprendre l'interaction consommateur, il faut distinguer les intentions de trafic de l'utilisateur entre intentions commerciales et non-commerciales.

Je vais me concentrer sur les résultats de la recherche organique répondant à une logique commerciale, mais ces principes d’usabilité peuvent également s'appliquer aux résultats de nature non-commerciale.

Si un suivi de la qualité des sites Web indexés par un moteur était assuré en tenant compte de l'interaction utilisateur par rapport au mot-clé recherché, vous verriez que tous les résultats produits par le spam de moteur
(technique de positionnement d’un site dans les résultats des moteurs sur des quantités de mots-clés non pertinents – NdT) seraient rapidement et organiquement relégués tout au fond des résultats.

Or le spam de moteur est quasi-identique au spam de courriel : gros volumes, faibles taux de conversion et beaucoup d’énervement.

Le trafic normal se positionnerait indépendamment du spam, en fonction de l'expérience utilisateur sur un mot-clé donné. Pour autant, positionnement indépendant ne signifie pas nécessairement non-monétisation du trafic organique.

Il fut un temps où Inktomi générait des résultats organiques « Trusted Feed »
(système automatisé permettant de soumettre aux moteurs des données complémentaires - NdT), mais le problème c’est que les annonceurs n’avaient aucun contrôle sur les mots-clés pour lesquels ils payaient.

Le marché est passé ensuite au CPC, même si je suis convaincu que le coût par clic n’est qu’une étape vers le coût par action, l’outil d’analyse dont se servent les marketeurs intelligents qui vendent du CPC.

À l’heure actuelle, Snap essaie de mettre en place la plupart des solutions décrites ici, mais je ne crois pas qu'ils connaissent suffisamment l'espace marketing de l'affiliation pour mener à terme une telle stratégie, ou alors il leur faudrait des années pour nouer des relations directes avec chaque site Web.

Le point central consiste plutôt à réaliser une plate-forme ad hoc et s’en servir pour développer des opportunités d’affaires. Vu le taux de croissance de Google, les moteurs de recherche concurrents tels que Yahoo auraient besoin d’une stratégie de pointe robuste pour inverser la tendance, or je suis convaincu qu'une telle stratégie réside dans « l'interaction consommateur ».

Le PageRank est mort.

Les liens deviennent de moins en moins importants, vu l’émergence des fils RSS. Les sites Web ne pointent plus les uns vers les autres, ils en syndiquent le contenu sur leur propre site.

Beaucoup des résultats de Google sont générés par du spam de moteur, qui résulte la plupart du temps de la duplication de contenu des fils de syndication : peut-on encore se fier à l’indice de popularité des liens ? L'utilisation des liens entrants pour déterminer l'autorité d’un site commence à décliner et s’érodera toujours plus.

Un autre problème avec les liens est qu’en utilisant les CSS, dont la reconnaissance n’est arrivée qu’après le PageRank, il suffit de mettre un seul lien sur votre site Web et de le propager dans tout le site de façon totalement transparente.

Il est notoire que les spammeurs de moteur achètent des liens PR9 et PR10 pour augmenter leur PageRank.

Donc, en qui pouvons-nous avoir confiance ?

Et pourquoi ne pas laisser le client décider ce qu'il juge plus pertinent et adéquat...

Imaginez le scénario suivant :
Un utilisateur recherche « DVD de Star Wars » dans Google. Les trois premiers résultats sont Amazon, Buy.com e eBay. Pour l’instant, vous ne savez pas chez lequel des 3 l'internaute va acheter son DVD. Or c'est là une info cruciale absente de votre base de données : imaginez un instant le potentiel énorme derrière l’optimisation des résultats en fonction de l'interaction utilisateur.

Un : vous trouveriez tout en haut des résultats la plupart de ceux qui sont pertinents ; deux : vous pourriez finalement commencer à monétiser le marché de la recherche organique, chose que le grand Google lui-même n'a pas encore réussi à faire.

Attention ! Je ne dis pas qu’il faille changer les résultats de l'index, au contraire, mais plutôt proposer les meilleurs résultats en premier, y compris des sites n'ayant aucun programme de monétisation (c.-à-d. aucun dispositif prévu de gestion des transactions commerciales). Pour autant, si vous redirigez du trafic vers Amazon, il est essentiel de le faire avec un lien affilié pour collecter à la fois les données et la commission afférentes.
Il y a plusieurs moyens de réaliser ce qui précède sans impacter la qualité des résultats.

1. Intégrer les programmes d’affiliation dans les résultats organiques commerciaux

Plus facile à dire qu’à faire, certes. Mais imaginons par exemple qu’un internaute recherche « Blink Malcom Gladwell Book » sur Google.

Normalement, le premier lien est celui d’Amazon. Donc, au lieu de rediriger gratuitement l’internaute vers Amazon en essayant de deviner si c’est bien là qu’il veut aller, vous le faites cliquer sur un lien affilié intégré à leur API (chose que notre serveur de catalogue réalise déjà aisément, et plutôt bien).

Là un cookie est attaché à la navigation de l’internaute et en fonction du retour d’info qu’Amazon vous renvoie, vous vérifiez si l’interaction client a bien eu lieu.

Ainsi vous pouvez améliorer vos résultats lorsque vous savez qu’au lieu de prendre son livre chez eBay, l’internaute va l’acheter chez Borders, et le moteur de recherche devient de fait un partenaire de recherche et d’achat personnalisé, ce qui devrait être l’objectif ultime de ce qu’est la recherche commerciale.

Nous savons aujourd’hui qu’eBay et Google collaborent étroitement, mais sans aucune rémunération sur les résultats organiques – imaginez un instant si les choses changeaient ?

Le concept n'est pas de construire deux index séparés, mais plutôt de réaliser des redirections affiliées pour permettre un partage des revenus en fonction des clics sur les résultats organiques correspondant à un vendeur donné.

2. Gain par clic

En assurant une traçabilité des gains au clic
(contrairement au coût par clic, payé par l'annonceur, le revenu par clic est versé à l’éditeur du site – NdT) liés au taux de clic sur un mot-clé donné, les moteurs de recherche pourraient observer que le trafic sur certains de leurs résultats organiques (apporté via des programmes d’affiliation) augmente de pair avec le niveau d'interaction client et génère un rendement supérieur à celui des résultats au CPC ; ils pourraient ainsi forcer les annonceurs CPC à payer plus pour se positionner, ou alors intégrer les liens sponsorisés aux résultats organiques.


3. Bases de données de partenariats

Les moteurs de recherche pourraient et devraient commencer à développer des bases de données incluant des partenaires de recherche. Il suffirait simplement aux partenaires n’ayant aucun programme d’affiliation d’ajouter des extraits de code Javascript à leurs pages (comme Urchin, par exemple), pour permettre aux moteurs de tracer la navigation de l'internaute sur leur site.

Ce qui améliorerait considérablement la compréhension de l'interaction consommateur et augmenterait le niveau de détection par les bots/spiders.

Vous pouvez également hiérarchiser les sites Web à forts volumes de trafic en leur donnant la priorité, voire en instaurant certaines formes de rémunération ad hoc. Cela permettrait en outre d’identifier des sites hier anonymes, qui profitent généralement de leur anonymat pour pratiquer le spam ou le phishing, etc.

Conclusion

Je n'ai fait que survoler quelques-unes des innombrables possibilités offertes à notre industrie, dont certaines peuvent être considérées farfelues ou pas, mais si la formule de Snap réussit, je serais curieux de voir combien les résultats seront proches ou non des théories de cet article. Dont l’idée générale est que les moteurs de recherche devraient positionner un site Web dans leurs résultats en tenant davantage compte de son usabilité, et qu’il y a sûrement là une excellente occasion de monétiser les résultats organiques sans pour autant impacter leur pertinence. »



Qu’en pensez-vous ?

Commentaires :
  1. Affirmer que le coût par clic n'est qu’une étape vers le coût par action me rappelle le coût à la conversion déjà anticipé par Eric Schmidt pour donner de la profondeur au système publicitaire de Google ;
  2. « ...aujourd’hui eBay et Google collaborent étroitement, mais sans aucune rémunération sur les résultats organiques – imaginez un instant si les choses changeaient ? » - Nous ne devrions pas tarder à le savoir...
  3. Je ne suis pas particulièrement ferré sur les questions techniques, aussi j'espère que des personnes plus compétentes que moi voudront bien nous éclairer de leurs lumières...

P.S. Ressource connexe : Understanding Searcher Behavior

Tags : , , , , , , , , , , , , , , ,

mercredi 14 juin 2006

Blog Teflon ou blog addictif : longue traine et valeur ajoutee

Blog Teflon® ou blog addictif : longue traîne et valeur ajoutée

Certains billets ont plus de valeur que d'autres. Des billets qui jouent davantage sur le registre de l'affectif pour moi qui les écris que pour vous qui les lisez - ou pas, en leur préférant des articles factuels. Mais bon, je suis pas journaliste ! Le propre d'un blog, c'est ça aussi, se sentir libre de dire ce qu'on veut (plus ou moins :-).

Le 100e billet publié, billet-bilan par excellence, est indubitablement l'un de ceux-là. Il en va de même pour le premier et, sans aucun doute, pour le dernier... Probable que le jour viendra, mais hic et nunc j'espère le plus tard possible !

Vous me direz, cent billets depuis mars 2005, tu t'es pas foulé le poignet. En fait, la rédaction de ce blog se répartit de la façon suivante : 1/5e des billets publiés en mars 2005 (voir un petit récapitulatif), 10 mois d'interruption pour cause de boulot intense (gros projets les uns à la suite des autres), et les 4/5e restants depuis janvier, ce qui représente grosso modo 80 billets en 5 mois, accompagnés d'un début d'audience pour ce blog :


Pour la première fois, j'ai dépassé les 100 abonnés à mon fil (Atom) grâce à mon dernier article sur la dérive publicitaire sur Internet et le double langage de Google. Je sais bien que ce chiffre est très fluctuant et qu'il suffit que je ne publie pas pendant quelques jours pour qu'il tombe au ras des pâquerettes, mais quand même, franchir le cap des 100 lectrices et lecteurs pour le 100e billet, c'est bon signe, qu'en pensez-vous ?

Question bilan, disons que je suis satisfait du dialogue qui s'instaure avec vous qui me faites l'amitié de me rendre visite, qu'en 5 mois mon blog est passé de PR0 à PR3 (ça fera sourire les professionnels qui ne vous jettent qu'un coup d'œil distrait en dessous de PR5), que j'ai même un billet historique PR6 !!! (rectius : probablement la Google Dance, il n'est plus que PR4, mais reste par ailleurs à l'origine d'une belle aventure), et que mon blog ressort presque toujours très bien positionné dans les résultats des moteurs, sur pratiquement tous les sujets que j'aborde. C'est donc encourageant.

Maintenant, vu que je préfère me tourner vers l'avenir plutôt que vers le passé, que dire de l'évolution d'Adscriptor telle que je peux l'imaginer aujourd'hui ?

[ ERREUR DE TIMING : j'ai cliqué par inadvertance sur PUBLIER, et c'est parti tout seul. À mon avis Blogger devrait proposer une confirmation, ça éviterait ce genre de désagrément. Bon, et bien il ne me reste plus qu'à rédiger la deuxième partie du billet, que j'avais prévu de publier ... ce soir, patience donc ! ]

* * *

[MàJ - 22h, 2e partie]

Un billet lu il y a quelques jours sur le blog de Performancing m'a fait réfléchir à la question. Signé Chris Garrett et publié sous licence Creative Commons, je vous en propose une synthèse :
Ce matin, en tombant sur un blog photo dans mon fil de syndication, j'ai été saisi par une évidence, à savoir que le concept de composition photographique est assez proche de la façon de bloguer. Attendez que je vous explique, ç'est peut-être moins étrange que ça en a l'air. J'espère.

Le point central du billet, c'est d'ajouter des couches d’intérêt. Un bon conseil pour la photo, qui selon moi vaut également pour les blogs. En photographie, on vous apprend à focaliser un objet dont l'intérêt pourra capter celui de votre audience. En y ajoutant des zones supplémentaires d'intérêt, vous pouvez retenir plus longtemps vos visiteurs et générer davantage de valeur dans la durée. L'alternative étant de proposer une image superficielle, un visuel eye-candy, où tout est dans l’apparence, un plaisir évanescent qu’on oublie dans la seconde. Or dans l'art, la plupart des chefs-d'œuvre qui ont traversé l'histoire peuvent être contemplés à l’infini, on ne s’en lasse jamais.

Idem pour les blogs, il faut trouver quelque chose pour capturer l'intérêt de son audience, quelque chose d'utile ou qui fascine, le but étant d'abord se faire remarquer, puis de retenir l'attention. Plusieurs scénarios possibles :
  • Un titre accrocheur ou un linkbait qui aimante l’attention de vos visiteurs
  • Un premier article pour les capter et leur river l’œil à l'écran
  • Des archives riches en substance pour leur montrer qu’il y en a aussi sous le vernis
  • Des billets porteurs et pertinents pour alimenter vos fils quotidiens, RSS ou autres
Ou que se passe-t-il si le lecteur appâté par votre accroche arrive sur un billet dépourvu d’intérêt ? Ou encore s’il ne trouve qu’un seul article digne de ce nom égaré dans un blog bonace, plat comme une mer d’huile.
(mes origines bretonnes qui remontent :-)

Un super article, et puis plus rien. Voilà ce que j’appelle un blog Teflon®.
Aucune rétention de vos visiteurs, même s’il y a différents degrés de rétention, avec deux pôles extrêmes : le blog Teflon® d'un côté, et le blog hyper-addictif de l’autre, il nous faut notre ration quotidienne…

Quant à publier un seul billet qui impacte, cela se traduit par un pic de trafic qui ne sera plus jamais atteint, alors que ce qu’on veut ce sont des statistiques en constante amélioration, une belle courbe d’évolution qui monte, grâce à de nombreux billets qui font mouche
(la mouche, c’est excellent pour la pêche… NdT), pour un double gain : fidélisation de votre lectorat et diffusion du bouche-à-oreille…
Voilà. Ce que j’aime avec les anglo-saxons quand ils parlent de marketing, c’est qu’à les lire on a l’impression qu’ils débitent des évidences les unes à la suite des autres, mais au moins ils ont le mérite de les dire, de les rédiger, les conceptualiser, et ce qu’on avait dans la tête de façon un peu confuse prend forme et clarté sous nos yeux de lecteurs.

Ce billet m’amène plusieurs réflexions :
  • D’abord, trouver un juste milieu entre les deux extrémités signalées ci-dessus, en opposant la longue traîne des blogs à l’instantanéité du blog Teflon®. Par exemple, mes statistiques me révèlent que les billets écrits en mars 2005 ne sont presque jamais lus, ce que je trouve dommage. À mon avis, un sujet tel que les travailleurs de la connaissance est toujours d’actualité, même si aujourd’hui il vaudrait peut-être mieux nous qualifier de travailleurs de l’information.
    Toujours à propos de longue traîne, l'indexation complète de ce blog par Atomz donne aujourd'hui 111 pages indexées pour un total de 308 706 mots. Ça fait quand même de la lecture ! D'ailleurs, s'il y a des téméraires, j'ai tout regroupé en un seul PDF de presque 15 Mo et 900 pages, il suffit de demander...
  • À l’opposé, plutôt que de pondre un billet tous les jours au risque de finir par publier n’importe quoi, je préfère écrire moins et fouiller un peu plus mes analyses. Pour moi la valeur ajoutée de ce blog, ce sont mes analyses. Je ne veux pas dire par là qu’elles sont irréprochables, au contraire, mais je peux vous assurer qu’elles sont personnelles, et documentées autant que faire se peut. Avec le plus de liens possibles en complément, conseil toujours valable, pas question d’être auto-référentiel (néologisme emprunté à l’italien qui signifie qu’on ne fait référence qu’à soi-même, or à l’instar de la gare de Perpignan, seul Dali pouvait se croire le centre du monde, et encore…). Juste pour donner un exemple, aux antipodes de l’Atelier, 100% nombriliste (essayez de trouver dans leurs articles un seul lien qui ne pointe pas vers… l’Atelier !), ma bête noire depuis un fâcheux épisode que je ne suis pas prêt d’oublier.
Pour conclure, mon métier de rêve : profession, blogueur. Ça manque à ma panoplie, mais je désespère pas de l’y accrocher un jour…



Tags : , , , , , , , ,

dimanche 11 juin 2006

Le marché publicitaire sur Internet : un pactole gigantesque

Le marché publicitaire sur Internet : un pactole gigantesque !

(N.B. : 17 juin 2006 - Si vous préférez, voici un PDF regroupant ce billet avec le suivant (vu que les deux sont liés), lequel ne s'affiche pas toujours en entier, probablement à cause du nombre d'images. Bonne lecture.)

Selon le rapport mensuel de comScore pour le mois d'avril, les américains ont fait 6,6 milliards de recherches dans le mois, contre 5,48 milliards en janvier, soit une progression de 22% en trois mois, 83% des dépenses publicitaires étant consacrées aux liens sponsorisés, d'après une étude SEMPO (Search Engine Marketing Professional Organization) publiée en début d'année ! À noter que de janvier 2005 (4,95 milliards de requêtes) à janvier 2006, cette croissance n'avait été que de 10,7%. Donc nous pouvons vraisemblablement supposer qu'ils auront atteint une moyenne mensuelle de 7 milliards de requêtes au moment où j'écris ce billet (rendez-vous dans deux mois pour comparer).

D'où il ressort que la part des États-Unis sur le marché mondial de la recherche est de peu supérieure à ... 20% ! Mon estimation se basant sur les chiffres communiqués par Jeff Weiner, Vice-Président Senior de Yahoo chargé de la recherche et des places de marché, lors de la présentation 2006 aux analystes, qui font état d'1 milliard de recherches par jour, données confirmées et corroborées par Bob Ivins, de ... comScore, qui chiffre le total mensuel à 33 milliards. On s'y retrouve...


On aurait pu s'attendre à plus, je vous l'accorde. Pourtant cette donnée est recoupée par les statistiques sur l'usage de l'Internet, puisque le pourcentage crédité au continent Nord-Américain est de 22,2%, avec une évolution de 110,3% sur la période 2000-2005, qui reste quand même la progression la plus basse (!) des sept macro-régions examinées. Comme quoi, avec les chiffres, tout est relatif...


Ces mêmes statistiques montrent d'ailleurs une population mondiale d'internautes correspondant (et même légèrement supérieure) aux prévisions de Yahoo :


qui estime dans ce même document l'ensemble du marché publicitaire en ligne à 31 milliards de dollars pour cette année, chiffre qui devrait presque doubler à l'horizon 2010...


(Vu que la part du lion revient à l'Asie, en taille et en croissance, on comprend mieux pourquoi chez GYM & Co. ça se bouscule au portillon pour pénétrer le marché chinois...)

[MàJ - 13 juin 2006] Je viens de découvrir (via SearchEngineWatch) un article du Washington Post daté d'octobre 2003, signé Leslie Walker, intitulé « To Place Ads, Google Searches For Best Bidders », qui dit ceci :
En valeur, l'industrie publicitaire liée à la recherche est passé de presque rien il y a deux ans (en 2001, NdT) à 1,5 milliard $ cette année, avec un prévisionnel de croissance estimé à 7 milliards $ en 2007, selon Safa Rashtchy, analyste chez U.S. Bancorp Piper Jaffray...

(From almost nothing two years ago, search [advertising] is now a $1.5 billion-a-year industry, growing to $7 billion by 2007," Safa Rashtchy, an analyst at U.S. Bancorp Piper Jaffray...)
Donc, en comparant les 7 milliards prévus il y a trois ans aux presque 38 milliards (!) prévus cette année pour 2007, ça donne vraiment une idée de la croissance exponentielle du marché publicitaire sur Internet, qui va en fait réaliser un CA supérieur de plus de 30 milliards $ à celui de ... 2003 ! Je me rappelle encore l'époque, toute proche, où les marchands du monde entier disaient : « Oui, Internet, c'est bien, mais comment savoir si nous pourrons y rentabiliser nos affaires... » On croit rêver ! Et je vous dis pas lorsque la téléphonie mobile va débarquer...

* * *

Concernant l'évaluation du marché publicitaire européen en ligne (voir d'autres chiffres détaillés ici), on peut l'estimer sans crainte de se tromper à 5 milliards d'Euros, puisqu'une recherche conjointe de Digital Strategy Consulting Ltd. et de l'Interactive Advertising Bureau - Europe évaluait par défaut les dépenses des Européens à plus de 4 milliards d'Euros pour l'année dernière, avec la répartition suivante entre pays :


les trois plus gros marchés étant le Royaume-Uni, la France et l'Allemagne. Moi qui vis en Italie, je suis frappé de voir la part de marché attribuée à ce pays (3,4% !), où la population des internautes a un taux de pénétration (par rapport à la population générale) et un taux d'utilisation de l'Internet supérieurs à la France :


Donc, un tel écart s'explique difficilement. Il faudra voir dans quelle mesure le taux de croissance annuel pondéré (CAGR, ou Compound Annual Growth Rate), dont Yahoo prévoit une progression marquée dans tous les compartiments (peuple des internautes, taille du marché de la recherche et opportunités publicitaires), s'applique à l'Italie (pour qui s'y intéresse). À suivre...

Enfin, si l'on pose en hypothèse - réaliste - que Google détient à lui seul la moitié du gâteau, on comprendra mieux les formidables enjeux économiques qui se cachent derrière ces chiffres, et expliquent la lutte furieuse de tous les acteurs en présence.

Dernières remarques :
  1. L'immense potentiel publicitaire sur Internet est étroitement lié au marché de la recherche, dont les premiers acteurs par excellence sont les moteurs. Leur influence s'étend d'ailleurs bien au-delà des seuls achats en ligne... Doubleclick, leader dans la technologie publicitaire en ligne, concluait une étude intitulée « La recherche préalable à l'achat » (Search Before the Purchase), commandée l'année dernière, en tirant les enseignements suivants :
    • La recherche joue un rôle dans à peu près la moitié des achats en ligne ;
    • La plupart des activités de recherche préliminaires à l'achat (recherches et clics) concernent des mots clés génériques plutôt que des marques ;
    • Plus les activités de recherche sont proches de l'achat, plus les mots clés liés aux marques sont présents ;
    • Nombre d'acheteurs font leurs recherches préparatoires bien avant l'acte d'achat ;
    • Les mots clés génériques sont une occasion de capter l'internaute pour l'engager dans le cycle d'achat ;
    • Les études qui analysent les résultats des recherches (ventes et retours sur investissement) en se basant sur un laps de temps trop bref avant le passage à l'acte ne prennent pas en compte la valeur des recherches génériques menées plus en amont du cycle d'achat.

    [MàJ - 14 juin 2006] Nouvelle découverte hier : le tableau ci-dessous nous donnent les revenus pour 1000 recherches (44,1 $ pour Google contre 34,1 $ au premier trimestre 2006), je vous laisse faire les multiplications !...


  2. Dans la présentation de Yahoo, qui prône une approche holistique au marché publicitaire (du grec holos, entier, complet, qui consiste en gros à traiter le tout plutôt que les parties), l'une des solutions proposées avec insistance est l'adoption des formats normalisés de l'Interactive Advertising Bureau (IAB Standardization) dans le cadre de la monétisation de ses services.

À mon avis, Yahoo confond le contenant et le contenu, contenu qui fera l'objet d'un prochain billet...


P.S. Question subsidiaire : dans la monétisation à outrance de tout et n'importe quoi se profilant à l'horizon, selon vous quelle sera la part des blogs ? Voir mon avis sur la question dans la dérive publicitaire sur Internet et les incohérences de Google (entre autres)...

Tags : , , , , , , , , , , , , , , , ,

vendredi 9 juin 2006

Le business des noms de domaine : une question de réputation et...


Il y a une semaine, en écrivant une ébauche d'analyse sur le positionnement des principaux acteurs du monde de l'Internet que sont Google, Yahoo, eBay, Microsoft et Amazon, je réfléchissais à une évidence que nous avons constamment sous les yeux :
En dépit de leurs différences ou de leurs guéguerres pour dominer le Web, et pas seulement, ils ont un dénominateur commun qui les rapprochent plus qu'on ne saurait le concevoir : ce sont toutes des sociétés américaines !
[MàJ - 4 juillet, fête commémorative de la Déclaration d'Indépendance des États-Unis d'Amérique.] Je ne croyais pas si bien dire : « Je suis fier d'appeler ma maison les États-Unis d'Amérique. Je suis encore plus fier d'affirmer que GoDaddy.com est une société américaine. » Bob Parsons


* * *

Pour autant la mainmise des États-Unis sur l'Internet ne s'arrête pas là, puisque l'ICANN, qui préside aux destinées du réseau des réseaux est aussi un organisme de droit américain, tout comme le sont la plupart des registreurs qui comptent, dont le rôle et l'importance sont à mon avis grandement sous-estimés dans nos analyses de la toile :


Sur les 15 bureaux d'enregistrement majeurs, 11 sont américains (voyez les petits drapeaux ci-dessus !), 1 canadien, 1 australien, 1 indien et ... 1 européen (allemand pour la précision).

On peut donc parler sans grand risque de se tromper de suprématie américaine dans des proportions écrasantes, de quasi-monopole même.

Est-ce un mal en soi ? Je n'en suis pas totalement convaincu, surtout lorsque je vois les vaines et coûteuses tergiversations du gouvernement autour d'un « projet » tel que Quaero, annoncé et alimenté à grand renfort d'argent public dans le plus pur style bureaucratico-administratif-franco-français, qui consiste à dire (plutôt qu'à faire, la nuance est de taille) :
Est-ce qu'on pourrait faire ça ? On va créer une commission qui se réunira peut-être pour étudier la faisabilité et faire un rapport. On demandera son avis à tout le monde, surtout ceux que ça ne concerne pas, et dès que quelqu'un élèvera une objection on s'empressera de pousser le rapport sous un tapis ! Dans 10 ans peut-être...
De toutes façons, c'est le contribuable qui passe à la caisse, merci aux politiques de tous bords de gérer notre argent avec la sagesse du bon père de famille...

* * *

Après cette entrée en matière un peu acide, je vais m'intéresser au premier des registreurs américains, et donc au premier registreur du monde, à savoir GoDaddy, qui gère à l'heure où j'écris plus de 11 500 000 noms de domaines (et une bonne part des miens :-), soit presque 1/6ème du parc mondial des domaines actifs, un peu plus de 70 millions au jour d'aujourd'hui ;-)

Une paille ! Dans un article paru il y a deux mois sur Forbes, intitulé What Makes GoDaddy Go? [Double sens entre Qu'est-ce qui fait courir GoDaddy ? et Pourquoi GoDaddy veut entrer en Bourse ? (sous-entendu : What Makes GoDaddy Go Public?)] , Rachel Rosmarin, la journaliste, donnait des chiffres supérieurs :
GoDaddy (...) says it manages more than 13 million domain names, or about 20% of the 86 million domain names on the Web. (GoDaddy déclare gérer plus de 13 millions de noms de domaines, soit environ 20% des 86 millions de domaines sur le Web.)
Ne sachant pas d'où elle détient ces données, je préfère m'en tenir aux statistiques actuellement disponibles (les deux graphiques ci-dessus, consultés le 9 juin 2006).

À noter au passage que la quantité des domaines supprimés est quasiment le triple de celle des actifs, alors qu'elle en représentait moins du double fin janvier. D'ailleurs en comparant l'évolution sur à peine plus de quatre mois, le nombre des domaines actifs a progressé d'environ 10%, contre environ 60% pour les domaines supprimés. Sans commentaires...

Donc, premier fait marquant concernant la société, son introduction en bourse a été annoncée en avril par Bob Parsons, son fondateur et unique actionnaire, la soixantaine bien portée :


Celles et ceux qui suivent mon blog (oui, il y a encore des personnes courageuses) auront déjà entendu parler de lui, grand pourfendeur des registreurs qui pratiquent le taste-domaines ou, si vous préférez, le domain kiting, que j'ai traduit par bidonnage, faute de mieux.

Certes, le timing de ces dénonciations n'est pas innocent, puisqu'elles interviennent au moment même où la société prépare sa mise sur le marché, et il est clair que Bob Parsons rend service à la communauté tout en œuvrant à bâtir la réputation de GoDaddy.


Opération indispensable pour rassurer les investisseurs potentiels : si GoDaddy est l'entreprise dont la croissance est la plus forte parmi les registreurs, elle perd aussi de plus en plus d'argent au fil des ans :
  1. 1 000 000 $ en 2003
  2. 3 700 000 $ en 2004
  3. 11 600 000 $ en 2005
Ces pertes étant dues aux investissements massifs en publicité, notamment les spots télévisés diffusés pendant la finale du Super Bowl, parmi les plus chers des États-Unis, puisque en 2006 il faut débourser 2 600 000 $ pour ... 30 secondes ! Je vous laisse calculer à combien revient la seconde... (Source : Web Hot Industry Review)


Le prix de la notoriété ! Du reste, la réputation est un concept auquel il tient fortement si l'on en juge à l'intitulé de trois brevets déposés par GoDaddy - numéros 20060095459, 20060095586 et 20060095404 -, respectivement :
  1. Publishing domain name related reputation in Whois records (Publication de la réputation attachée à un nom de domaine dans les données du Whois)
  2. Tracking domain name related reputation (Traçabilité de la réputation attachée à un nom de domaine)
  3. Presenting search engine results based on domain name related reputation (Présentation des résultats dans les moteurs de recherche en fonction de la réputation attachée à un nom de domaine )
Source : Search Engines and Registrars Getting Creative with Whois Database?

J'ai essayé d'en savoir plus, mais apparemment la consigne c'est : « Aucune info disponible pour l'instant... »


Ceci étant, les titres sont suffisamment explicites, et la mise en place de tels systèmes représenterait à la fois une alternative au SafeRankJM et une manière de sécuriser davantage le Web, puisqu'il est désormais évident qu'il y a une corrélation entre les domaines bidons et l'envoi de pourriels en masse, un spamming planétaire avec en prime, de plus en plus souvent, la contagion par quelque virus ou virus-like (en attendant les vrais...) !

* * *

En fait, Bob Parsons n'est plus seul à dénoncer les arnaques aux noms de domaines et l'inertie de l'ICANN face au problème, puisque le très sérieux MessageLabs, qui publie un rapport de veille mensuel sur les dangers qui menacent l'Internet (virus, spam, phishing, etc.), dénonce explicitement dans celui du mois dernier (mai 2006) le phénomène des « Disposable Domains » liés au « Domain Kiting » :
Ces derniers mois, on assiste à une escalade des « domaines jetables » (Disposable Domains), qui progressent dangereusement d'un mois sur l'autre. MessageLabs a déjà abordé la question des « domaines jetables » dans son rapport de veille pour l'année 2005, mais la pratique du Domain Kiting fait qu'il est plus facile d'exploiter ce genre de domaines à des fins d'abus et de fraude.

(In recent months, new issues such as “Disposable Domains” have escalated to become much more of a serious threat than they were even a few months ago. Disposable Domains were first highlighted in the MessageLabs Intelligence 2005 End-of-Year report, and the practice of “Domain Kiting” makes it much easier for these domains to be abused.)
Selon le rapport 2005, ces domaines jetables ont une durée de vie de 12 jours à moins d'un jour (variant de moins de 24 heures pour 28,9% des domaines bidons à moins de 3 heures pour 9,9% d'entre ceux qui sont dans cette catégorie). Cela leur suffit cependant à bombarder le Web de milliards de spams et autres infections du même acabit, puisque les canons à spam transmettent plusieurs millions de messages ... à l'heure !



On vit vraiment une époque formidable ! :-)


P.S. Devinette connexe : quelle est la relation entre GoDaddy et Microsoft ? Réponse : sur les quelque 11 500 000 noms de domaines que gère la société, GoDaddy a décidé il y a quelques mois (info dont Gandi s'était fait l'écho) de migrer tous ses domaines en parking - soit un parc de 4 500 000 noms - de Linux à Microsoft, qui récupère ainsi du terrain sur Apache dans le marché des serveurs Web :




Tags , , , , , , , , , , , , , , , , , ,

mardi 6 juin 2006

Traitement de l’information en France : mon poing sur le I du PIF

Traitement de l’information en France : mon poing sur le I du PIF

Il y a parfois des hasards que je qualifierais de ... télépathiques ! Le titre de ce billet est prêt depuis plusieurs jours, très exactement depuis le vendredi 26 mai dernier, au moment où j'effectuais cette mise à jour. Je ne l'avais pas encore rédigé par manque de temps, mais je savais qu'il aborderait le traitement de l'information sur le PIF, le Paysage Internet Français (et non pas francophone, nuance...), notamment en faisant référence au travail d'Olivier Andrieu. Or dans le billet qu'il publie ce jour, intitulé Octobre 2007 : Google maître du monde !, quelle n'est pas ma surprise de lire ces lignes :
À noter, pour l'anecdote (mais aussi parce que beaucoup de personnes s'approprient les idées des autres actuellement sur le Web sans trop de vergogne...), que je revendique le terme de "PIF" pour "Paysage Internet Français". J'ai utilisé pour la première fois cet acronyme dans mon livre "Internet Guide de Connexion" paru en 1994 chez Eyrolles. En plus, je suis un fana de Pif-Gadget... Voila, ça a peu d'intérêt mais parfois, il faut quand même dire les choses... Bonne semaine...
Donc, rendons volontiers à César ce qui appartient à César, et à Olivier Andrieu ce qui appartient à Olivier Andrieu. À ma décharge, je ne peux qu'invoquer ma totale bonne foi, car il est sûr que j'aurais utilisé le sigle PIF sans me poser la question de sa paternité, pour la simple raison que je n'en avais pas la moindre idée.

* * *

Ceci étant précisé, venons-en au sujet de ce billet, dont l'idée, qui couve en moi depuis plusieurs semaines, peut se résumer en quelques mots :
L'actualité liée à l'Internet dans son ensemble, telle qu'elle est traitée sur le Web français, est gravement et coupablement lacunaire, tant au plan quali-quantitatif que de la fraîcheur de l'information.
Deux constatations préliminaires :
  1. Il ne fait pas bon ignorer l'anglais si l'on veut se tenir au courant des événements relatifs à l'Internet et ses acteurs. En outre, chaque jour fournit une telle profusion d'informations qu'on est vite débordé, même en ne voulant sélectionner que les plus pertinentes. Pour vous donner un exemple, juste le week-end passé, j'aurais eu matière à faire quatre billets complets, je n'ai pu en rédiger qu'un. Je ne sais si les trois autres verront le jour...
  2. Il y a sur le Web français quelques fournisseurs d'infos attitrés, dont les actus sont reprises en boucle par un certain nombre de sites qui les relaient sans y apporter aucun éclairage, aucune analyse, rien de rien ! Uniquement du copier-coller. Où est l'intérêt ? Ajoutez à cela un problème d'asymétrie de crédibilité dans l'information, et vous aurez un cadre de la situation assez réaliste.
La réflexion m'est venue lors de la publication de l'article sur le partenariat eBay-Yahoo, annoncé pour la première fois le jeudi 25 mai dernier. J'écrivais dans une première mise à jour :
...il est minuit passée de quelques minutes, l'info est sortie depuis près de 12 heures maintenant, il y a déjà plus de 500 dépêches qui la décortiquent dans tous les sens sur Google US et pas une seule - j'insiste : 0, un beau zéro pointé - dans les news de Google France. De plus, à ma connaissance, sur le Web francophone, seul Zorgloob a sorti un entrefilet, et sur Technorati, il y a en tout et pour tout 5 résultats pertinents en français... Donc, moins d'une dizaine de billets en français, contre des milliers d'articles en anglais, le décalage horaire n'explique pas tout ! Après on se demande pourquoi les anglo-saxons ont toujours plusieurs longueurs d'avance sur Internet...
C'est d'ailleurs là où Olivier Andrieu intervient (ou n'intervient pas, c'est selon), puisque lui aussi a publié une actu (également un peu après minuit) sur ... Quaero !

Donc comme je le confiais en commentaire à Didier Durand qui s'interroge sur l'éventuel succès de Quaero (à mon avis aussi hypothétique que l'arrivée de Godot, mais c'est une autre histoire...), il y a bien décalage total entre l'importance d'une information et son traitement. Commentaire déçu auquel Didier réplique ainsi :
Vous ne pensez pas que le "trou" dans la blogosphère et les médias français vient du très long week-end d'Ascension?
On va donc accorder le bénéfice du doute à nos collègues. N'est-ce pas?
Certes. Mais on touche là un autre problème résolument franco-français, que je nommerais par métaphore le syndrome des 35 heures... Regardez les titres de Google News France le vendredi soir et le lundi matin, ce sont pratiquement tous les mêmes ! Et pendant ce temps sur le Web, 35 heures s'écoulent en moins d'un jour et demi (24h + 11h)...

Or s'il est vrai qu'Internet transcende la dimension spatio-temporelle, le problème pourrait facilement être résolu par une délocalisation du traitement : les sources d'information étant indexées automatiquement, n'importe quel français vivant hors de France et n'éprouvant pas le besoin forcené de ne rien foutre pendant les 133 heures hebdomadaires restantes [168 (24 x 7) - 35 = 133] pourrait fort bien s'acquitter de la tâche. Je caricature, mais pas tant que ça quand même !

Pour conclure, que les choses soient claires : je n'ai rien contre Olivier Andrieu (du reste, je suis plutôt admiratif de ce qu'il réussit à faire), ni contre Google France ni contre qui que ce soit, mais je trouve que l'actualité sur le Web français (et non francophone car les Canadiens sont souvent bien plus en avance que nous) manque de fraîcheur, souvent de pertinence et de profondeur, voire de crédibilité. En une formule, elle est doublement déficitaire, en quantité autant qu'en qualité. Je suis frappé par l'écart abyssal avec la richesse de l'information anglo-saxonne en la matière. À tous points de vue : analyse, dynamisme, capacité de se remettre en question en permanence, etc.

Je ne sais pas trop comment l'on pourrait remédier à cela, mais en tout état de cause la ressource exceptionnelle que représentent les blogs est largement sous-exploitée, puisque la blogosphère réunit en son sein tous les ingrédients nécessaires : qualité, quantité, fraîcheur, pertinence, crédibilité, analyse, expertise, dynamisme, etc.

Il n'y a plus qu'à les mettre ensemble...



P.S. [MàJ - 7 juin, 10h45'] En voulant répondre au commentaire de Didier Durand, qui me suggère d'attendre avec patience la mise en ligne de Wikio.fr, prévue dans quelques jours, je suis retourné visiter Wikio pour voir si deux des options que j'aurais aimé y trouver avaient été implémentées, à savoir la possibilité de soumettre son flux RSS ou de pinguer son blog en toute simplicité, un peu comme sur Technorati, au lieu de devoir publier directement sur Wikio. Or en faisant des recherches sur les flux RSS je suis tombé sur cette actu d'InFlux, blog de l'incontournable Christophe Asselin, annonçant le lancement par « Malaiac de Zewol.net (the whole Net), un nouvel outil de méta syndication francophone » :


Excellent, excellentissime, comme quoi c'est bien dans l'air du temps ! Il est vraiment télépathique ce billet :-)

Tags : , , ,