jeudi 24 mai 2007

La navigation directe : une affaire d'argent (beaucoup, beaucoup, beaucoup d'argent)

La navigation directe : une affaire d'argent (beaucoup, beaucoup, beaucoup d'argent)...

Premier élément
Deuxième élément
1 + 1

* * *

Après plusieurs billets consacrés à GYM et un long intermède politique (une fois n'est pas coutume), je voudrais revenir sur un sujet que j'affectionne particulièrement : les noms de domaine.

J'ai déjà eu l'occasion d'expliquer comment fonctionne le second marché ou les taste-domaines, de parler de la longue traîne ou de l'ICANN, et surtout de montrer les abus et les rouages du business que font des acteurs tels que GoDaddy, eNom (également impliqué dans le désastre RegisterFly) ou Google, qui n'est pas le dernier puisqu'il joue sur tous les tableaux, notamment avec les AdSense (même si l'orientation pourrait changer, ce qui serait heureux).

Mais aujourd'hui je voudrais vous parler d'un risque. D'un danger, qui ... risque de nous tomber sur le coin du museau sans qu'on s'en aperçoive, et surtout sans que personne n'y trouve rien à redire une fois qu'on sera mis devant le fait accompli. Alors je préviens, c'est tout. Sans grande illusion puisqu'à mon corps défendant je vois ce risque danger se dessiner de façon au moins aussi inéluctable que le profilage en série...

Mais commençons par le commencement, à savoir la navigation directe : le type-in traffic comme disent les anglo-saxons, c'est-à-dire la saisie directe du nom de domaine dans la barre d'adresse du navigateur, une alternative à la recherche sur les moteurs avec de meilleurs taux de conversion, ce qui semble d'ailleurs faire de l'ombre à Google.

Une alternative non négligeable puisqu'on évalue la fourchette des internautes qui naviguent de cette manière entre 10 et 15% du total. Donc lorsque l'on sait qu'au dernier trimestre 2006, Verisign a traité en moyenne 24 milliards de requêtes PAR JOUR uniquement sur les extensions .COM et .NET, ça peut donner une légère idée de ce dont on parle... (Voulez-vous que je répète ? : « VeriSign processed an average of 24 billion .com and .net queries per day in the fourth quarter of 2006... »

VeriSign, donc, qui est mieux placée que quiconque pour connaître les chiffres, a compris très tôt tous les bénéfices potentiels qu'elle pouvait tirer de la navigation directe, en introduisant dès 2003 le concept du SiteFinder, qui consistait à rediriger vers ses serveurs toutes les saisies de domaines inexistants en .COM et .NET (saisies erronées soit à cause de fautes de frappe soit parce que les domaines entrés n'étaient pas enregistrés). Ce fut un tollé général, davantage pour des questions liées à la vie privée des internautes que pour des questions techniques, et même si apparemment Verisign a perdu son procès, cette affaire est indirectement à l'origine du renouvellement par l'ICANN de son contrat de Registre agréé.

Or que se passe-t-il 4 ans plus tard (SiteFinder remonte à sept.-oct. 2003) ? Dans les principaux contrats d'agrément signés avec les registres, l'ICANN a introduit une clause (je ne les ai pas tous vérifiés, mais elle est présente pour les extensions .ORG, .BIZ, .INFO), généralement à la Section 3.1(f) de l'ARTICLE III (Covenants), intitulée Traffic Data, qui dit exactement ceci :
Nothing in this Agreement shall preclude Registry Operator from making commercial use of, or collecting, traffic data regarding domain names or non-existent domain names for purposes such as, without limitation, ...
(...)
Nothing contained in this section 3.1(f) shall be deemed to constitute consent or acquiescence by ICANN to an introduction by Registry Operator of a service employing a universal wildcard function.

Traduction

Rien dans cet accord n'empêche le Registre de collecter ou d'exploiter commercialement les données statistiques concernant le trafic des noms de domaine existants OU NON, à des fins, sans que la liste soit exhaustive...
(...)
Aucune des dispositions de la présente section 3.1(f) ne sera réputée impliquer le consentement ou l'acquiescement de l'ICANN à l'introduction par l'opérateur du Registre d'un service employant une fonctionnalité de jocker universel.
Maintenant, pour ce qui concerne Verisign, si la clause n'est pas présente pour le .NET, elle est bel et bien là pour le .COM, l'ICANN se montrant encore plus explicite :
Nothing contained in this section 3.1(f) shall be deemed to constitute consent or acquiescence by ICANN to a re-introduction by Registry Operator of the SiteFinder service previously introduced by the Registry Operator on or about September 15, 2003, or the introduction of any substantially similar service employing a universal wildcard function intended to achieve the same or substantially similar effect as the SiteFinder service.

Aucune des dispositions de la présente section 3.1(f) ne sera réputée impliquer le consentement ou l'acquiescement de l'ICANN à la réintroduction par l'opérateur du Registre du service SiteFinder, précédemment introduit par ce même opérateur aux alentours du 15 septembre 2003, ni à l'introduction d'un service sensiblement identique employant une fonctionnalité de jocker universel, qui aurait des buts et des effets sensiblement identiques à ceux du service SiteFinder.
Donc, au plan légal, la question que je me (vous) pose est celle-ci : « Quelle est la portée juridique de cette phrase (Aucune des dispositions de la présente section 3.1(f) ne sera réputée impliquer le consentement ou l'acquiescement de l'ICANN...) ? »

Je ne suis pas spécialiste du droit des noms de domaine, mais si les mots veulent dire ce qu'ils disent, ça signifie tout simplement que l'ICANN n'entend pas cautionner cette pratique, sans l'interdire formellement pour autant...

C'est le premier élément. Passons au second. [Début]

* * *

Les ccTLDs (Country Code Top-Level Domains) sont les extensions correspondant aux codes pays, dont l'utilisation est en hausse constante (voir les stats). Selon Verisign, fin 2006 on comptait 43,7 millions de domaines enregistrés en codes pays (soit une augmentation de 31% par rapport à fin 2005), dont plus de quatre millions enregistrés durant le dernier trimestre 2006 (soit 10% de mieux que le trimestre précédent. L'extension la plus en vogue est le .cn (Chine), tandis que 42 autres codes pays connaissent un taux de progression à deux chiffres, dont le .se (Suède), .es (Espagne), .ru (Russie), .at (Autriche).
2006 ended with 43.7 million ccTLDs, a 31 percent increase over the end of 2005. Just over four million ccTLDs were added in the fourth quarter of 2006, a 10 percent growth over the third quarter. This is the largest quarterly growth for ccTLDs. The growth seems to be driven in large part by .cn (China) which added more than 500,000 names in the fourth quarter alone, a 43 percent increase quarter over quarter. While China made a large impact, the growth was widespread with fifty-two ccTLDs experiencing double-digit growth including .se (Sweden), .es (Spain), .ru (Russia) and .at (Austria).


En outre, comme le reconnaît l'ICANN, les relations avec les opérateurs des registres pays sont plus complexes à gérer (These relationships are more complex, because of the varying circumstances ... of different ccTLDs and the organizations that operate them).

Prenons l'exemple du Cameroun (.cm) et de Kevin Ham, fondateur de Reinvent Technology (plus ici).

En exploitant un brevet déposé par Robert Seeman en 2006, n° 20060053213, intitulé « Method of handling web page requests from a browser » (Méthode de traitement des requêtes d'affichage d'une page Web à partir d'un navigateur), Kevin Ham a passé un accord avec le premier ministre de ce pays, Monsieur Ephraïm Inoni, de sorte que tous les type-ins ayant une extension .cm saisis par les internautes finissent sur un site, Agoga.com, qui compte actuellement la bagatelle de ... 8 millions de visiteurs uniques par mois ! Si Adscriptor faisait ça, je crois que je mettrais des Adsense dessus. :-)


Essayez cette requête, vous verrez que les pubs sont servies par ... Yahoo! Qui n'a pas commis l'erreur de Google, de ne pas enregistrer son extension en .cm (la redirection de Google.cm sur un autre site qu'Agoga étant due uniquement au souci de M. Ham d'éviter quelque casse-tête juridique...).

Mais le brevet va plus loin, puisque s'il mentionne expressément les cinq extensions qui sont des typos des .COM et .NET [".cm" (Cameroun), ".om" (Oman), ".co" (Colombie Britannique), ".ne" (Niger) et ".et" (Éthiopie)], il est beaucoup plus générique dans ses revendications (1. A method of handling a request from a browser for a web page with a given TLD that an end-user has entered into the browser URL line, comprising the steps of: (a) determining whether the URL defines a web page that exists for that TLD; (b) if it does not exist, then providing for a domain name server to automatically direct the browser to at least one web site and not provide an error message; characterised in that the TLD has been erroneously entered by the end-user as a ccTLD instead of a TLD selected from the set of .com and .net TLDs.)... [Début]

* * *

Une info qui va faire son petit bonhomme de chemin puisqu'elle a été relayée avant-hier par Michael Arrington lui-même et reprise sur Techcrunch France, où elle est donnée brute...

J'espère donc que la présente analyse vous permettra d'y voir plus clair, ma principale crainte étant qu'en faisant 1 + 1 on puisse un jour se retrouver avec un certain nombre de registres qui mettront en œuvre ce genre de pratiques, sans que rien ne puisse légalement les en empêcher.

Mais bon, je me trompe peut-être. Du moins je l'espère. [Début]


, , , , , , ,

dimanche 20 mai 2007

Google, the serial Profiler

Introduction
Le brevet qui fait peur
Sur Internet, la gratuité est-elle gratuite ?

* * *

Introduction

Je suis toujours très étonné de voir que les gens s'étonnent des implications infinies qu'a et qu'aura de plus en plus Internet sur nos vies privées. Et de voir des levées de bouclier plus ou moins étendues, plus ou moins consensuelles, contre l'espionnage et le profilage comportemental qui menacent le respect de nos libertés individuelles, de nos choix personnels et professionnels, de notre aptitude à décider, etc.

De même que l'identité numérique est inévitable, le profilage qui en est le pendant naturel l'est tout autant pour les marchands. Car dès que nous nous connectons à Internet, nos faits et gestes sont traqués, pesés, soupesés, analysés, décortiqués, etc. Sachons-le !

Et ne soyons pas surpris : inutile de faire semblant de croire qu'on pourrait y échapper, inutile de s'indigner (attention, je ne dis pas que s'indigner n'est pas légitime, je dis que c'est inutile, nuance, même si je vais vous paraître désabusé...), les intérêts et les puissances en jeu - économiques et autres - sont trop considérables pour prendre en compte les attentes de l'internaute lambda, dont l'opinion a environ la même densité que la goutte d'eau dans l'océan...

Pour faire une métaphore, l'information aujourd'hui, c'est comme le pétrole il y a un siècle et demi, un gisement brut dont l'humanité se nourrira longtemps encore, et les effets collatéraux tels que le réchauffement climatique n'ont jamais empêché les marchands d'imposer l'or noir au monde entier, ni de le rendre indispensable et irremplaçable alors même qu'il pourrait être remplacé. Substituez juste "réchauffement climatique" avec "respect de la vie privée" pour aller jusqu'au bout de l'analogie...

Fini le marketing de masse indifférencié, les techniques de pointe sont depuis longtemps déjà au ciblage socio-démographique, au profilage psychologique et comportemental (qui n'est plus l'apanage des seuls criminels), au géomarketing, etc. Et qu’on le craigne ou s’en offusque n’y changera rien. Depuis longtemps le cynisme et le pragmatisme des publicitaires ont pris le pas sur les bonnes vieilles valeurs d’antan, il faut en être conscients. Sous peine d’immenses et d’intenses désillusions, cruelles certes, mais qui ne changeront pas le cours de l’histoire pour autant.

Déjà, pour les gourous de l’Internet qui décident où, quand et comment placer leur pub pour qu’elle ait l’impact le plus fort et le taux de transformation le plus élevé, il y a longtemps qu’une somme d’individus ne fait plus une collectivité mais un marché, ou plutôt des marchés, autre abstraction bien commode par les temps qui courent. Et qu’on appelle ces individus internautes, utilisateurs, journalistes citoyens ou autres ne fait aucune différence.

Désormais, la segmentation sur Internet se fait tellement efficace que la plus petite unité de découpage est l’individu, qui se trouve ainsi pratiquement dépecé, analysé sous toutes ses coutures et composantes, physiques, mentales, sociales, culturelles, économiques, publiques, privées, familiales, professionnelles, voire sexuelles, raciales et religieuses, etc., au point que chacun est un marché à lui tout seul, chacune un marché à elle seule. Le graal des marketers depuis la nuit des temps…

Qui ne vont pas se priver de continuer à archiver, trier, répertorier, géoréférencer, etc., une masse de données considérable, dont la croissance exponentielle fait passer la loi de Moore pour de la roupie de sansonnet.

Sans oublier que dans un avenir très proche la montée en puissance de la téléphonie mobile, le déploiement mondial de la biométrie et de certaines FET (technologies futures et émergentes), mais aussi de l’Internet des choses, tout cela permettra aux entreprises d’anticiper toujours davantage, voire d’inventer – au plus près (dimension géospatiale) et au plus tôt (dimension temporelle) – nos attentes, nos désirs, nos goûts, etc., avec une exactitude quasi-satellitaire, un niveau de précision jamais égalé à ce jour, et aujourd’hui encore bien moins que demain.

S'il ne fallait citer qu'un chiffre :


[MàJ - 3 juin 2007 : l'adaptation française de cette vidéo est maintenant disponible]

A fortiori, il n'y a pas que les entreprises. Faites confiance aux gouvernements et aux institutions de tous bords pour en faire autant. Avec notre accord ou sans. Du genre « ennemis de l'État ». Les enjeux sont trops gigantesques pour qu'ils s'arrêtent à des détails aussi insignifiants que l'avis des personnes.

Pour employer un néologisme parlant, nous serons vivisséqués et surveillés en permanence. Tout au long de notre existence, du berceau au tombeau. Qu’on le veuille ou non.

Donc si ce préambule est clair, nous pouvons entrer dans le vif du sujet. [Début]

* * *

Le brevet qui fait peur

Cet article couvait en moi depuis quelques mois déjà, mais c'est la lecture du billet de François Grisoni sur l'excellent Googlinside qui en a été le déclencheur. Intitulé « Le brevet qui fait peur », l'auteur s'inquiète de ce qu' « il serait possible d'établir le profil psychologique d'un joueur sans interférer avec l'expérience de ce dernier... », offrant ainsi la possibilité « effectivement très simple et sans doute particulièrement tentant(e) de croiser les données recueillies à l'aide de cette technologie aux informations déposées par le joueur lors de son inscription, rompant ainsi l'anonymat des statistiques. »

Donc, dans un premier temps j'ai voulu en savoir plus sur le dépôt (par BALUJA, Shumeet aux U.S. et par Google hors U.S.) du brevet n° 20070072676, intitulé « Using information from user-video game interactions to target advertisements, such as advertisements to be served in video games for example » (traduction officielle : utilisation d'informations issues d'interactions de jeux vidéo utilisateur pour cibler des publicités telles que des publicités pouvant servir dans des jeux vidéo par exemple), qui décrit de manière assez détaillée un échantillon possible des emplois multiples que l'on peut faire des saisies/actions de l'utilisateur. Exemple avec le point 47 de la description :
User input may include user selections, user dialog, user play, etc. User selections may include, for example, one or more of characters, vehicles (e.g., a specific make of an automobile, car color, engine modifications, car modifications, etc.), tracks, courses or fields (e.g., a specific racetrack, a specific stadium, etc.), teams, players, attire, physical attributes, etc. There are many customizations a user may select from depending on the genre of the game. These selections may reflect the user's fondness, preferences, and/or interests. User dialog (e.g., from role playing games, simulation games, etc.) may be used to characterize the user (e.g., literate or illiterate, profane, blunt, or polite, quiet or chatty, etc.). Also, user play may be used to characterize the user (e.g., cautious, strategic, risk-taker, aggressive, non-confrontational, stealthy, honest, dishonest, cooperative, uncooperative, etc.).
François Grisoni nous fournit une traduction partielle (la partie en gras ci-dessus), qui donne une bonne idée de l'ambiance :
Les dialogues (par exemple dans les RPG, les simulations, etc.) peuvent être utilisés pour caractériser l’utilisateur (par exemple éduqué, profane, franc, poli, calme, etc.). De la même façon, la façon de jouer de d’utilisateur peut être analysée (par exemple courageux, agressif, évite les confrontations, discret, honnête, coopératif, indépendant, etc.).
Par conséquent, s'il est clair qu'on peut légitimement s'en inquiéter, il est tout aussi clair de voir que la stratégie globale des firmes va inexorablement dans ce sens, et que les quantités de plus en plus faramineuses de données qu'elles récoltent tous azimuts à notre sujet seront peu ou prou utilisées pour influer sur nos choix, nos actions, nos comportements, etc., la liste n'est limitée que par l'imagination.

Et même si les sociétés telles que Google cherchent constamment à nous rassurer, il est évident qu'emmagasiner autant de données sans les exploiter serait suicidaire pour une entreprise. La mise à disposition "gracieuse" de plus en plus de services destinés aux internautes n'a d'ailleurs pas d'autre but que de collecter et d'amasser nos données à des fins de traitement, de ciblage, etc. Ce qui nous amène à nous poser la question suivante... [Début]

[MàJ - 29 mai 2007] À propos de Googlinside , voir la vidéo qu'ils ont réalisée. Même muet, il est parlant, ce GMan...



* * *

Sur Internet, la gratuité est-elle gratuite ?

La réponse est évidente : NON ! La seule justification de l'apparente gratuité sur Internet est qu'elle permet d'obtenir un avantage en retour, que ce soit en termes économiques, d'analyse, de positionnement, de pénétration, etc. Ce que les auteurs du rapport sur l'économie de l'immatériel (PDF, 700 ko) appellent « Le paradoxe de la "valeur gratuite" ».

Et au final de mieux capturer l' "utilisateur" dans les rets du filet, le Net, de la toile, le Web, du réseau, le Network, du réseau des réseaux, Internet ! Pour mieux le faire confluer, converger, consommer, etc. Seul point commun, le préfixe con...

Le jour de mon 49e anniversaire, il y a plus d'un an déjà, je sais :-(, dans un billet intitulé Google : the Portal Strategy!, qui tentait de dresser un panorama détaillé de la galaxie de services grâce auxquels Google centralise de plus en plus de données précises sur les internautes, j'envisageais explicitement le rôle de profileur de Google en ces termes :
Par conséquent dans cette logique, à terme plus ou moins rapproché, la prochaine étape consistera très probablement à s’éloigner de la catégorisation des annonces pour passer à leur individualisation. En bref :

fini les AdSenses ciblés, vive les AdSenses personnalisés !

Une (r)évolution qui me semble inéluctable, vu les ambitions affichées par Google : à partir du moment où la firme possède une énorme quantité d’informations sur vous et peut en extraire un profilage systématique et significatif, qu’est-ce qui l'empêchera de vous proposer des AdSenses en fonction de vos préférences ?

Concrètement, cela signifie que deux internautes faisant la même recherche sur le même Data Center de Google, à un instant donné, se verront proposer des AdSenses distincts dans les résultats, ciblés sur leurs centres d’intérêts, tous les produits et services destinés a priori à améliorer votre « expérience de navigation », dans le discours bien rodé de Google, servant naturellement à personnaliser les annonces à votre intention, évidemment différentes de celles du voisin.

Avec à plus ou moins long terme aussi, le risque danger que les résultats fournis deviennent de moins en moins neutres, objectifs, et de plus en plus orientés, pilotés, en fonction des intérêts des parties prenantes (voir les résultats de Google Base qui font déjà de l'ombre aux liens sponsorisés...). Car jusqu'à preuve du contraire, nous devons bien comprendre (et donc, ne pas confondre) qu’un moteur de recherches n’est pas un service public mais une entreprise privée, et commerciale, d’où les inévitables pressions pour « monétiser » ses produits et services et constamment améliorer le fameux ROI… Ça semble couler de source, mais le rappel n’est pas inutile  !
Attention, je ne parle ici que des Adsense (sans évoquer la myriade d'autres usages possibles), non pas de leur personnalisation côté éditeur, au sens d’intégration et d’optimisation des messages de pub dans votre site, mais bien de leur personnalisation côté Google, c’est-à-dire au niveau des Adsense servis par le moteur. Dont je considère qu'avec sa nouvelle accroche subliminale, Universal Search, Ads & Apps, tout est dit.

Ainsi je ne peux que confirmer la conclusion que je tenais dès mars 2006 :

Le client est ROI, certes, mais roi de quoi ?...

Alors, Google profileur en série, oui ou non ? Qu'en pensez-vous ? [Début]


P.S. L'appellation de "profileur en série" dont j'affuble Google vaut tout autant pour les acteurs majeurs du Web, mais pas seulement, d'AOL à Microsoft, de Verisign à Yahoo!, en passant par GoDaddy ou qui vous voulez, il est important de le préciser... [Début]

, , , , , , , , , , , ,

samedi 19 mai 2007

Google voudrait Feedburner : info ou intox ?

Google voudrait Feedburner : info ou intox ?

Franchement c'est de la folie cette fin de semaine, on passe de Google à Microsoft pour en revenir à Google, et tout ça en deux jours !

[MàJ - 24 mai 2007] Rumeur confirmée, c'était donc une "info". Comme l'observe justement Emmanuel, « il y a comme une lassitude à commenter ces rachats successifs. » Je suis bien d'accord :-)

Je viens de lire le billet d'Alternatives numériques qui dévoile l'affaire, en citant comme source Sam Sethi, bien connu de la blogosphère française depuis son différend avec Loïc Le Meur et son licenciement brutal de Techcrunch, apparemment pour avoir publié un billet intitulé Le Web3 the good, bad and ugly (petit rappel des faits)...

Donc est-ce qu'il a pris Techcrunch de vitesse cette fois, nous le saurons dans les prochains jours [MàJ - 24 mai 2007 : oui]. En tout cas le bruit est repris par ValleyWag, qui chiffre le deal à 100 millions de $.

Là encore, l'affaire semble être jugée sérieuse puisqu'elle est traitée par Om Malik et Search Engine Land, entre autres, qui n'ont pas tellement pour habitude de parler sans recouper leurs infos, même s'ils prennent les précautions d'usage.

Donc, info ou intox ? Je n'en sais rien, il est tard, je suis fatigué et je vais me coucher. Bonne nuit :-)


P.S. En tout cas, si tous les grands du Web font leurs emplettes avec cette voracité, il va plus rester beaucoup de sociétés capables de les concurrencer. Et les barrières à l'entrée vont grimper, grimper...

, , ,

vendredi 18 mai 2007

Microsoft contre-attaque avec l'acquisition d'aQuantive

Microsoft contre-attaque avec l'acquisition d'aQuantive

Les analystes en avaient évoqué la possibilité lors du rachat de DoubleClick par Google, une transaction qui inquiétait Microsoft, probablement très préoccupé de vouloir rester dans la course vu que l'écart se creuse de plus en plus avec Google, et bien voilà qui est fait. Au moins, les choses ne traînent pas... Ce rachat succède à celui de Screentonic.

Valeur du deal, 6 milliards de dollars, décidément, les grandes manœuvres se poursuivent. Communiqué officiel : aQuantive, c'est la maison mère d'Avenue A | Razorfish™...

À chaud, ce que je pense de ces mouvements des principaux acteurs du Web est fort bien synthétisé dans une analyse d'Emmanuel Parody, qui répond à la question : « les revenus générés par la publicité pourront-ils rémunérer les investissements, les coûts du stockage et de la diffusion ? »
- La réponse est … non

La réponse est non du moins tant que l’immense majorité de ces revenus est le produit marginal des réseaux publicitaires basés sur la performance (CPC, CPA et autres friandises), mots clés sponsorisés en première ligne. La raison en est simple: ces revenus sont insuffisants pour financer la production de contenus et le grand cirque de l’information citoyenne et blogosphérique ne parvient pas à fournir les conditions d’une production industrielle de flux d’information alliant à la fois fiabilité, régularité et exhaustivité (par honneteté on admettra qu’il peut remplir ca et là l’un ou l’autre des critères). Conditions nécessaires à la fidélisation sur le long terme d’une audience mature et homogène, le prérequis pour tirer le meilleur parti du marché publicitaire. Le vrai. Celui des marques.

Qu’on ne s’y trompe pas, la réorganisation des forces en présence vise avant tout à capter ce marché publicitaire, lequel est pour le moment justement toujours hors de portée de Google. La tentative d’appropriation du Web 2.0 par Yahoo pour en faire l’instrument de ciblage comportemental des internautes est précisément une des pièces de la stratégie des portails pour séduire les annonceurs et reconstruire le modèle traditionnel de rémunération des médias. La direction de Yahoo, majoritairement composée de professionnels de l’industrie des medias n’est certainement pas du genre à se satisfaire d’un pourcentage au clic.
J'espère qu'il ne m'en voudra pas de le citer si longuement, mais d'après moi la clairvoyance de son analyse est l'une des clés pour comprendre ce qui se passe en ce moment...

Je détaillerai davantage dans la journée, je n'ai pas le temps pour l'instant. @ +

* * *

Comme le rapporte Search Engine Land, Microsoft était en compétition avec d'autres acteurs, non révélés, pour l'acquisition d'aQuantive, ce qui explique la plus-value importante versée par la société de Bill Gates : 6 milliards $ pour une valorisation actuelle de 5,2 milliards $, soit 15% de plus que le cours actuel de l'action.


Il faut dire qu'après avoir laissé échappé Double Click, Redmond ne pouvait pas se permettre le luxe de louper le train une fois de plus. Le prix de l'attente, selon certains. Après tout, les poids lourds de cette taille ne sont pas légion dans le paysage mondial...

Pour finir sur une note humoristique, selon les propos de Brad Smith (conseil juridique de Microsoft), rapportés par Greg Sterling pour Search Engine Land, l'acquisition d'aQuantive par sa firme est destinée à promouvoir la compétition, tandis que le rachat de DoubleClick par Google menacerait cette même compétition. En ajoutant que l'opération de Google fait double emploi alors que celle de Microsoft est parfaitement complémentaire...

Microsoft General Counsel Brad Smith took pains to distinguish this deal from Google's acquisition of DoubleClick. He argued this deal will promote competition, while Google's purchase of DoubleClick will reduce competition. He also argued that Google and DoubleClick have "overlapping businesses," while Microsoft and aQuantive are complementary.
Comprenne qui pourra :-) Autant dire que l'hypercompétition a des règles que la compétition ne connaît pas !



, , , ,

jeudi 17 mai 2007

Universal Search, Ads and Apps

Universal Search, Ads & Apps

Évolution :
  1. Google Search, Apps & Maps
  2. Google Search, Ads & Social
  3. Google Search, Apps, Maps, Ads & Social, les deux billets ci-dessus réunis en un seul PDF téléchargeable (645 Ko) pour une lecture plus confortable.

Google, qui devance déjà largement la concurrence, pourrait bien la distancer définitivement grâce à une (r)évolution majeure de son infrastructure de recherche et de présentation des résultats, définie sous l'appellation Universal Search.

Il y a quelques jours, Danny Sullivan nous révélait la nouvelle accroche informelle - ou tag line - de Google : Search, Ads & Apps, qui se démarque à la fois de sa mission "historique" et de sa devise, tout aussi informelle : Don't be Evil, comme pour mieux embrasser les trois domaines de prédilection de Google que sont la recherche, la pub et les applis.

Or voici qu'aujourd'hui Google est prêt à déployer son concept de recherche universelle, qui semble l'aboutissement d'une longue évolution, puisque Marissa Mayer en parlait déjà en 2001.

Vous trouverez d'excellents billets qui abordent le sujet, l'un chez Sergi, l'autre chez Olivier côté français, plus, côté anglais, ce panorama très complet de Danny Sullivan, et le billet de Bill Slawski sur les différents brevets, notamment sur les évolutions de l'interface de présentation des résultats.

En gros, Google poursuit sa logique de verticalisation annoncée depuis longtemps pour aller puiser ses résultats dans un mix de sources telles que Blog Search, Book Search, Catalogs, Code Search, Directory, Google Finance, Google Images, Google Local/Maps, Google News, Patent Search, Product Search (ex Froogle), Google Scholar, Google Video (+ You Tube), Google Web Search, Google Groups (et donc Usenet), etc.

Impressionnant ! Voir un exemple sommaire. Ne nous reste plus qu'à comprendre comment tirer le maximum de la recherche universelle selon Google, qu'on pourrait appeler la recherche en 3D (hauteur + largeur et profondeur)...

Quant à la pertinence qui a fait le succès de Google, gageons qu'elle sera au rendez-vous, même si le problème d'élaborer une échelle commune de pertinence à toutes ces sources n'a pas dû être simple à résoudre, chaque source ayant ses propres règles, comme nous l'explique Eric Enge dans le passage intitulé The Universal Ranking Dilemma :
Once Google made the decision to fully integrate the results, the first thing that needed to be developed was a relevance scoring system that would work on the same numerical scale across all of their properties. The image search engine, for example, has a relevance scoring system of its own. So do their video search properties. But they don't naturally have the same scale. There was no pre-existing way to tell if a particular high ranking image was more important than a web result, or a video search result.
Davantage de détails ici (en anglais). Ou dans le communiqué de presse officiel, qui précise :
The company is also releasing the first stage of an upgraded ranking mechanism that automatically and objectively compares different types of information. As always, Google™ search results are ranked automatically by algorithms to deliver the best results to users anywhere in the world.
The first stage... La première étape... Comme pour dire : une évolution majeure peut en cacher une autre, préparez-vous à de nouvelles surprises sous peu... Oui, je crois qu'on n'a pas fini d'en parler !

Pour les anglophones, si vous souhaitez suivre le webcast, cliquez sur l'image :



P.S. Moi qui voulait faire un billet pour répondre de façon plus détaillée au commentaire de Cédric sur mon analyse de GYM, j'ai été pris de court par l'actualité et, à la lumière des multiples annonces de Google, la réponse à laquelle j'avais pensé hier tombe à côté de la plaque 24 heures plus tard !

, , , ,

Cinq blogs indispensables

Cinq blogs indispensables

Dans la série « Si je ne devais lire que 5 blogs » Otto le Chauffeur m'a tagué pour connaître mes goûts. Réponse très difficile. Tout d'abord parce que mes lectures sont fortement orientées par mes humeurs du jour, par l'actualité, ou simplement par le hasard. Ensuite parce que la blogosphère est d'une richesse inépuisable et insoupçonnée, ce qui fait qu'on n'arrête pas de découvrir d'excellents blogs.

Ceci dit, mes préférés sont ceux qui offrent à leurs lecteurs des ANALYSES. C'est-à-dire qu'ils ne se contentent pas de rapporter les actus du jour, qu'on va retrouver sur des dizaines de blogs répétées presque à l'identique, mais qu'ils donnent à lire une véritable valeur ajoutée. C'est donc dans cette optique que je vous propose mon choix, avec 2 blogs anglo-saxons et 3 français :
  1. Search Engine Land, le nec plus ultra
  2. Read/Write Web, de Richard MacManus
  3. Internet Actu, riche en analyses
  4. Standblog, parce que j'aime l'open source et l'écologie
  5. inFLUX, par un vieux de la veille :-)
Mais que cela ne vous empêche pas de consulter les classements des meilleurs blogs, que ce soit celui de Criteo, de Wikio ou de Didier Durand, même si ce dernier manque d'une mise à jour.

Et puisque j'en parle, à mon tour de demander à Didier, Olivier, Mike, Emmanuel et Jules quels sont leur cinq blogs indispensables.


, ,

jeudi 10 mai 2007

GYM : une analyse

Les indicateurs économiques
Le cool factor

Pour moi, la énième rumeur de rachat de Yahoo! par Microsoft est à mettre au compte des signaux sur lesquels il convient de s'arrêter et de réfléchir.

Dont acte.

Les trois acteurs en présence sont toujours les mêmes :
  1. Google
  2. Yahoo!
  3. Microsoft
Avec G d'un côté, et YM de l'autre.

Le premier caracole en tête, les deux autres suivent, tant bien que mal. Une troisième place qui n'est certes pas dans la nature de Microsoft. Et même si Terry Semel voudrait nous faire croire que les journaux ne racontent que des conneries, perso je préfère penser que le fait qu'un tel argument revienne cycliquement sur le tapis est bien le signe qu'il n'y a pas de fumée sans feu.

Et qu'il témoigne surtout de l'indécision, voire de l'égarement, de deux sociétés cherchant par tous les moyens à combler un retard qui ne cesse de croître. J'imagine que toutes deux sont conscientes qu'elles doivent trouver une forme d'accord ou de collaboration (Semel did make a call for his company and Microsoft to work together on Internet advertising standards) pour contrer Google, tout en sachant qu'une fusion entre deux cultures d'entreprises aussi différentes pourrait déboucher sur un échec retentissant. Sauf à créer une nouvelle entité en détachant MSN de la maison-mère, ce qui serait une bonne façon de faire du neuf avec du vieux et d'éviter une fuite des talents...

Car en réalité, la somme de deux échecs ne fait pas une réussite. Maintenant, dire de Yahoo! et Microsoft qu'elles ont échoué, vous allez me rétorquer que je divague, et pourtant les chiffres parlent d'eux-mêmes.

Ce que Steve Ballmer résume par une formule lapidaire :
Microsoft has the most visitors. Yahoo actually has people spending the most total time with them. And Google makes the most money.

Microsoft a le plus de visiteurs. C'est sur Yahoo que les internautes passent le plus de temps. Et c'est Google qui fait le plus d'argent (ou qui ramasse la mise, si vous préférez).
Donc si G s'en sort le mieux alors qu'il est devancé par YM (ne pas confondre avec ym...) en termes de fréquentation, les raisons de son succès doivent être cherchées ailleurs. Dans les ratios par exemple.

Or à nouvelle donne, nouveaux ratios : les indicateurs économiques servant à évaluer l'efficacité de GYM doivent être à la mesure ... de leur démesure. [Début]

* * *

Les indicateurs économiques

C'est d'ailleurs en lisant une analyse de Victor J. Cook Jr., intitulée Microsoft's $8 Billion Problem, que j'ai eu l'idée de ce billet.

En voici les principaux passages traduits avec son aimable autorisation.
Dans le marketing des entreprises, il y a deux marchés distincts, le marché pour les clients d’une part, le marché pour les capitaux de l’autre, et nous savons qu'ils interagissent. Les hausses de revenus générées par les ventes, qui sont la promesse d’une trésorerie plus abondante, se répercutent sur la capitalisation. Et une meilleure capitalisation impacte le chiffre d’affaires, en fournissant davantage de liquidités à l’entreprise pour financer sa croissance par le biais des acquisitions.

Le tableau ci-dessous, qui se base sur les données 2006, montre que GYM a généré un C.A. global de 61,3 milliards $ pour une capitalisation agrégée de 469,5 milliards $, soit un ratio Cap./C.A. moyen de 7,66. En termes simples, cela signifie que durant l’année dernière les trois sociétés ont globalement créé 7,66 $ de capitalisation pour chaque dollar de chiffre d’affaires.

Or mon étude sur le ratio Cap./C.A. [value/revenue (v/r) ratio] de toutes les entreprises cotées de 1950 à 2005 aboutit à un ratio moyen de 1,1, ce qui veut dire que sur le long terme C.A. et capitalisation s’équivalaient à peu près. Quant à l'écart type du ratio, il a constamment progressé, passant de 1,2 durant les années 50 à +70 sur la période 2000-2005, caractérisée par une volatilité majeure. En prenant un échantillon de 50 472 sociétés sur la décennie 1991-1999, la valeur moyenne du ratio était de 7,92. Par conséquent, la performance de GYM observée ci-dessus (7,66 pour l’année 2006) est plutôt modeste.

(…)

LA RÈGLE DE GERSTNER


La première chose à savoir pour mieux comprendre quel est le moteur de ces résultats, c'est quelle est l'efficacité marketing de chacune des trois entreprises. Dans son livre, Who Says Elephants Can't Dance?, Lou Gerstner (l’artisan de la relance d’IBM) nous donne un principe de base sur l'efficacité marketing d'une entreprise. Une règle simple et révélatrice à la fois : combien ça vous coûte de générer un dollar de C.A. par rapport à vos concurrents ? Ce qu'on appelle la règle du coût par dollar (CPD) de Lou Gerstner…

Quant aux coûts marketing de l’entreprise (EME - Enterprise Marketing Expenses), ce sont tous les coûts supportés en termes de ressources humaines et de programmes destinés à influencer le comportement des clients, des investisseurs, et leur façon de penser, d’agir et de sentir vis-à-vis d’une entreprise.


En 2006, Microsoft a dépensé 6,584 milliards $ en R&D, plus 13,576 milliards $ en frais de vente, frais généraux et frais d'administration (SG&A), qui incluent traditionnellement les coûts vente & marketing. Pour un total EME de 20,160 milliards $. Donc en divisant cette somme par le C.A. 2006, cela nous donne un CPD de 0,455 : il en a coûté à Microsoft 45,5 cents pour générer 1 dollar de C.A.

Or en appliquant le même calcul à Google (1,229 milliard $ R&D + 1,601 milliard $ SG&A / C.A.), le même rapport était de 26,7 cents / 1 pour la société de Moutain View, soit près de moitié moins !

Autrement dit, pour chaque dollar de C.A. généré, Microsoft a dépensé 18,8 cents de plus que Google. Rapporté au C.A. global 2006, cela signifie que Microsoft aurait pu économiser 8,3 milliards $ en ayant le même ratio de performance que Google.
D'où l'analyse de Victor J. Cook Jr., qui chiffre le problème de Microsoft à 8 milliards de dollars. CQFD !

Dans un autre ordre d'idée, je me suis amusé à calculer la productivité par employé chez GYM, en divisant le C.A. par les effectifs (source : WSJ).


Résultat, là encore, Google fait 50% mieux que Microsoft (868 852 $ contre 579 085 $ par personne). Donc, je veux bien qu'à l'occasion on puisse faire dire aux chiffres tout et son contraire, mais parfois leur froideur donne une image assez fidèle de la réalité.

Or dans les trois cas ci-dessus, YM se situe dans la moyenne, alors que G s'en détache nettement. Et bien que Yahoo! et Microsoft aient d'excellentes performances (quelle n'est pas l'entreprise qui aimerait se vanter d'avoir des résultats pareils ?), Google est largement devant avec un différentiel énorme lorsque l'on parle d'hypercompétition... [Début]

* * *

Le cool factor

Pour autant les statistiques n'expliquent pas tout, y compris l'engouement et la préférence des internautes pour Google, qui sont plutôt à mettre sur le compte de ce que les anglo-saxons appellent le "cool factor", que je traduirais par "capital sympathie", une notion totalement étrangère à Microsoft et qui ne peut certes pas s'acheter, même avec quatre fois plus de liquidités que son concurrent !

Le capital sympathie de Google

Outre ses fameux intemporels, je dirais que le principal attrait de Google est l'ouverture, à quoi Microsoft oppose une conception propriétaire farouche qui fait de nous des clients captifs. Or avoir des clients captifs, c'est bon pour les monopoles, mais dès que ceux-ci tombent, les clients s'en vont. Et la legacy des produits Windows, Office & Co, même si elle se fait encore sentir, et comment, a de plus en plus tendance à se dissiper.

Observons deux signes qui ne trompent pas, l'un chez Google, l'autre chez Microsoft.

1. Dans GMail (dont je recommande vivement l'utilisation à quiconque), lorsque je reçois un document Word, Google me propose soit de le télécharger, soit de le voir en HTML, soit de l'ouvrir dans Google Docs, et c'est gratuit.


2. En revanche si un collègue m'envoie un fichier .docx, .xlsx ou .pptx. (nouvelles extensions d'Office 2007) je ne peux pas les ouvrir avec mon actuelle version de Word, Excel ou Powerpoint. Il faut juste que je passe à la caisse. Et pourtant j'ai déjà payé. Consternant ! À ce compte-là, je préfère de loin adopter OpenOffice qui m'offre gratuitement des fonctionnalités identiques, et se paie même le luxe de mieux gérer les gros fichiers que Word, j'ai eu l'occasion de le constater à maintes reprises.

Ceci étant, bien que ma seule hâte soit d'écarter définitivement les produits Microsoft de mon ordinateur, je ne le fais pas - encore - pour une autre raison. En effet, ce ne sont pas les applications bureautiques qui me freinent, c'est le système d'exploitation. Aujourd'hui Windows XP, et demain très probablement Vista. Pourquoi ? Parce que je ne suis pas suffisamment geek pour passer à Linux et aux logiciels libres, dont l'utilisation demande - encore - une expertise informatique que je n'ai pas. Et malheureusement je ne connais pas d'autre alternative à ces deux OS.

Donc pour finir, si j'avais un conseil à donner aux compères Brin, Page & Schmidt, ce serait de nous sortir vite fait un système d'exploitation signé Google, qui nous changerait par sa qualité, sa simplicité, sa rapidité, sa gratuité, son universalité, son originalité et son interactivité. Selon moi, ce serait vraiment la killer app pour se débarrasser définitivement de Microsoft.

Car aujourd'hui ce n'est pas tellement d'une connexion dont ont besoin les internautes qui se branchent via leur ordi, ce serait plutôt d'un système d'exploitation léger qui les libérerait de l'usine à gaz Microsoft. C'est selon moi le plus gros obstacle à la percée du webtop, car la firme de Redmond nous tient captifs bien plus par son OS que par ses applications de bureau, de jeu ou tout ce que vous voudrez.

Et dans la transition du desktop au webtop et, demain, au mobtop, le premier acteur qui sortira un système d'exploitation ayant une prise en main intuitive et conviviale décrochera un avantage phénoménal sur les autres.

Enfin, c'est mon avis. Un bel atout à jouer pour Yahoo! Qu'en pensez-vous ? [Début]


Liens connexes :
, , , , , , , , , ,