jeudi 31 mai 2007

Liens Adscriptor sur ... le cerveau !

Liens Adscriptor sur ... le(s) cerveau(x) !

Je ne peux vraiment pas faire l'impasse sur les vidéos qui suivent !

Tout d'abord, la rencontre historique entre Steve Jobs et Bill Gates, qu'on peut vraiment qualifier de pionniers de l'informatique de masse moderne. Deux cerveaux ! Naturellement c'est en anglais, mais ils articulent plutôt bien. L'entrevue à été divisée en 7 parties dont je vous propose la première (les autres sont ici). Sautez la pub...



Via Paul Kedrosky. Pour lire les dialogues, c'est ici (via Francis Pisani).

* * *

La suivante m'est indirectement inspirée par celle-ci, déjà citée dans Google, the serial profiler :


[MàJ - 3 juin 2007 : l'adaptation française de cette vidéo est maintenant disponible]

dont la traduction de la diapo en capture d'écran et des précédentes dit ceci :
D'ici à 2013, on estime qu'un superordinateur dépassera les capacités de calcul du cerveau humain, et d’ici à 2023, lorsque des diplômés de 23 ans frais émoulus de leurs écoles entreprendront leur (première) carrière . . . chaque ordinateur à 1 000 $ dépassera les capacités tout court du cerveau humain.. .

Et tandis qu'il est difficile de prévoir les évolutions techniques à un horizon dépassant 15 ans, les prédictions nous disent que d'ici 2049 un ordinateur à 1 000 $ dépassera les capacités de calcul de l'humanité entière.
Ce qui m'amène à vous présenter la vidéo suivante, absolument incroyable. Laissez-vous aller et regardez-la, vous m'en direz des nouvelles (et vous saurez tout sur Kimputer, le véritable Rain Man...) ! C'est en français, lâchez-vous...


Via Yoan De Macedo. Perso, en voyant ça, je me dis "pauvres ordinateurs" ! Maintenant, si vous souhaitez en savoir plus sur le cerveau...

En attendant, moi je vais reposer le mien, ça m'a fatigué de voir ça :-)

[MàJ - 8 janvier 2008] Je viens de découvrir que la vidéo ci-dessus n'était plus disponible, mais vous pouvez vous consoler avec ce qui suit, vous ne serez pas décus !




P.S. Et devinez un peu qui est-ce qui s'intéresse à notre temps de cerveau...

, , , ,

mercredi 30 mai 2007

L'entreprise selon Loic Le Meur : morceaux choisis

Ce matin j'ai vu et écouté ce podcast réalisé par Loïc Le Meur, qui parle de l'entrepreneuriat et des entrepreneurs. Très, très intéressant. Où j'ai appris également qu'il est en passe de déménager pour aller vivre à San Francisco, au cœur de la Silicon Valley et que, selon lui, Google est le premier média dans le monde. Ce qui peut sembler une évidence, quoique...

Donc, s'il y a des internautes qui, comme moi, préfèrent le silence de l'écrit - propice à la réflexion - à l'oralité du podcast, je vous rapporte ici les passages qui m'ont marqué, en vrac, juste avec 2-3 retouches pour adapter ça au medium blog et quelques mises en évidence [entre crochets, quelques renvois perso] :
Sauter le pas et ne pas penser aux freins...

Y’a que l’exécution qui compte, l’idée, elle, ne compte pas vraiment !

Aujourd’hui c’est plus facile qu’avant, les ressources sont sur Internet. Tous les pays sont en concurrence les uns et les autres...

Tout est à un clic, notamment avec les blogs, y’a plus de filtre, vous pouvez être directement à la source de l’info.
[cf. mon précédent billet]

L’ère du bêta, càd lancer des produits et les créer avec ses clients. Maintenant on lance, c’est pas fini, c’est pas grave, on lance et on expérimente avec les gens, on construit avec les gens, on regarde en face les critiques… en public, sur un blog ou ailleurs, et on améliore le produit.
[cf. Reportlinker...]

Si on se plante, c’est pas grave, il faut absolument changer, en France, cette culture de l’échec, moi j’arrête pas de me planter, le tout c’est de recommencer et de continuer…
[d'autres parlent d'archaïsme...]

C’est vraiment une idée pour l’instant, et je le partagerai avec tout le monde dès que ça sera un peu plus qu’une idée…

Une équipe ? J’en ai pas, y’a que moi en ce moment…et c’est super agréable, ça vous oblige à vous concentrer sur l’essentiel.

Finalement la règle a changé : plus on partage l’information et plus il y a de personnes qui risquent d’être intéressées, plus elles sont intéressées plus vous avez d’opportunités pour vos produits, pour vos services...

C’est le bouche à oreille qui fait le travail. Sans aucune pub sans aucun marketing. Oui les règles du jeu ont changé, le plus important, la différence la plus importante, c’est la transition incroyable du marketing vers le bouche à oreille
[le buzz]. Et ceux qui vont rester dans les méthodes traditionnelles pour communiquer vont continuer, mais vont aller moins vite que ceux qui utiliseront ces nouveaux moyens…

La sous-traitance est une grande tendance… Au-delà de la sous-traitance « pays pauvres, pays riches », ça va être surtout une tendance d’assembler des gens (ensemble) pour un projet, qui vont se désassembler par la suite quand le projet sera terminé, y compris au niveau des indépendants (free-lances).

Je suis pas pour une entreprise sans salariés, mais je crois que la grande grande tendance c’est 1 entreprise = 1 personne. L’entreprise, c’est vous, et votre blog comme direction de la communication.

La notion de « contrat de travail » et d’exploitation, comme on en entend encore parler, est complètement ringarde à mon avis. eBay, c’est 1 million d’emplois, les gens créent leur emploi.

Finalement une entreprise c’est un projet et rien de plus, et les gens s’assemblent à nouveau et vont se désassembler en fonction des besoins, c’est la flexibilité totale… il faut de la flexibilité dans le travail.

Il y a bien sûr des limites à tout ce que je dis, je veux pas rentrer dans les détails ici, bien sûr ça concerne pas tout le monde, tout le monde peut pas être un entrepreneur, bien sûr beaucoup de gens ont besoin de protection(s)…

Je veux simplement insister sur les tendances de l’évolution en ce moment. À nouveau, pour moi, une société c’est plus la conception de mon père et de mon grand-père, qui avait transmis la société à son fils, et c’était l’entreprise pour la vie et ainsi de suite, moi je pense que c’est une autre ère qui démarre à nouveau, ce sont des projets, finalement… même si ça s’applique surtout à Internet (où tout est dématérialisé…) et pas à toute l’industrie…

Je me fous complètement de la hiérarchie… une notion assez dépassée. Je me vois plus comme animateur d’un groupe que comme un dirigeant.

Probablement un conseil, c’est que si vous créez une entreprise en ayant à l’esprit le fait de vouloir absolument gagner de l’argent, c’est une énorme erreur. Je crois qu’il faut d’abord faire quelque chose qui vous plaît, qui vous passionne, qui vous empêche de dormir la nuit, et le reste c’est un résultat et ça peut pas être une fin. Si ça marche, les résultats financiers seront probablement là, mais pas l’inverse.
Voilà. Je concluerai en insistant sur les deux citations qui me touchent le plus, respectivement en début et en fin de message :
  1. Y’a que l’exécution qui compte, l’idée, elle, ne compte pas vraiment...
  2. Je crois qu’il faut d’abord faire quelque chose qui vous plaît, qui vous passionne, qui vous empêche de dormir la nuit,...
L'idée, car comme je le montre dans ma lettre ouverte à Michel-Édouard Leclerc, si l'on n'a pas les moyens de ses ambitions, les idées restent mort-nées.

Quant à ma réponse à la question : « Qu'est-ce qui m'empêche de dormir la nuit ? », hic et nunc : Internet...

Et pour finir, si les extraits qui précèdent vous donnent envie d'en savoir plus, voici l'intégralité de la vidéo (suffit juste de passer la pub :-).




, , , ,

Journalistes vs. blogueurs, quelles distinctions ?

Journalistes vs. blogueurs, quelles distinctions complémentarités ?

Il me semble que ce débat, plutôt vif sur Internet, revient régulièrement sur le tapis. Qui voudrait que les blogueurs aient plus ou moins un statut de journalistes, qui souligne que les deux choses n'ont rien à voir, qui affirme sa différence, qui les met sur un pied d'égalité, sans parler de la question du "journalisme citoyen", du "sur un blog on peut dire n'importe quoi", des questions de rémunération, etc.

Signalons tout d'abord que cette réflexion naît d'un commentaire raté. En effet, à la lecture de ce billet de Pointblog, qui nous indique que le journal Le Monde, aussi bien dans son éditorial d'hier que dans un article, « n'est pas tendre avec Google », j'ai voulu faire le commentaire suivant :
Bonjour,

Oui, enfin, ce qui me désole, dans ces articles à l'emporte-pièce, c'est qu'on peut y retrouver tous les arguments bateaux écrits à destination du grand public juste parce que c'est ce genre de discours qu'il veut entendre. Or qu'on puisse lire à l'envi les mêmes poncifs à droite et à gauche ou comme là, plus grave encore, signés Le Monde, ça devrait vraiment faire réfléchir sur la capacité de certains journalistes d'analyser comme il se doit le phénomène Internet.
Donc je renverrais vos lecteurs à deux analyses "sérieuses", une en anglais, et l'autre en français (excusez-moi de me citer). Cordialement,

Jean-Marie Le Ray
Or le système n'accepte pas le commentaire, apparemment pour un problème technique (MàJ : bon, maintenant le commentaire y est, mais entre-temps j'ai commis ce billet...). Quoi qu'il en soit, l'essentiel de ma pensée est résumé dans ce passage : « ce qui me désole, dans ces articles à l'emporte-pièce, c'est qu'on peut y retrouver tous les arguments bateaux écrits à destination du grand public juste parce que c'est ce genre de discours qu'il veut entendre... »

J'en ai fréquemment des exemples, tant dans la presse qu'à la radio (lire mon commentaire, je trouve d'ailleurs Catherine Nivez beaucoup plus juste et pertinente lorsqu'elle s'exprime par écrit) ou la télé. Pas plus tard qu'en début de semaine, j'ai suivi un semblant de reportage aux infos de 13h sur la première chaîne italienne, RAI 1, où l'on ne pouvait s'empêcher de s'interroger sur le sens ultime de ce flux de paroles qui ne conduisait nulle part, sauf à créer toujours plus de confusion dans les esprits des auditeurs. Argument "traité" : Google...

D'où mes perplexités sur « le processus de sélection ex-ante des producteurs de connaissance » que suivraient les journalistes dans les médias traditionnels, tel que le mentionne M. Bouba-Olga dans son analyse intitulée « Journalistes contre blogueurs », qui devrait consister à respecter des canons précis, même transposés à Internet, comme nous le précise Emmanuel Parody : « ...on établit au départ des règles de professionnalisme et des exigences qui sont celles des journalistes. Ceux qui maitrisent ces règles sont naturellement ceux qui s'approprient peu à peu le média. »

Monsieur Bouba-Olga nous soumet par ailleurs le découpage suivant :
Une première façon de traiter le problème est de regarder la qualité de la production des journalistes, et celle des blogueurs. On arrive vite au constat que 4 configurations existent : bons journalistes / mauvais journalistes ; bons blogueurs / mauvais blogueurs.
À rapprocher du découpage que j'ai proposé l'année dernière dans L'asymétrie de crédibilité dans l'information :

Il y a asymétrie lorsque :
  • la source objectivement crédible est subjectivement perçue comme non crédible
  • la source objectivement non crédible est subjectivement perçue comme crédible
auquel s’ajoute cet autre double problème, propre à Internet et aux médias de masse :
  • la source objectivement crédible est largement ignorée (il y a crédibilité sans notoriété / visibilité)
  • la source objectivement non crédible est largement suivie (notoriété / visibilité sans crédibilité)
C'est ainsi qu'en mélangeant les différentes configurations, poursuit M. Bouba-Olga : « C'est aux lecteurs de faire le tri ». Et d'ajouter, sur les blogs, ... on peut trouver des analyses plus fines de problèmes que les médias traditionnels ne peuvent que survoler. On a quelque chose qui ressemble à une opposition entre généralistes (médias traditionnels) et spécialistes (blogueurs experts).

Quelle implication? Globalement, la qualité moyenne des deux types de média peut être la même, ils diffèrent en revanche certainement par la dispersion de la qualité
 :


Une représentation qu'il explique ainsi :
Sur le graphique, la qualité moyenne peut être supposée supérieure dans la presse traditionnelle (Qp) comparativement à la qualité moyenne des blogs (Qb). La courbe de densité des journalistes est plus "petite" afin de prendre en compte le fait que le nombre de journalistes sévissant dans les médias traditionnels est significativement inférieur au nombre de blogueurs. Compte tenu de ce qui a été dit plus haut, on suppose qu'il y a moins de mauvais articles dans la presse traditionnelle en raison du processus de sélection ex-ante, mais aussi moins de très bons articles, en raison de la moins grande spécialisation des journalistes.
Voilà. J'espère que Monsieur Bouba-Olga m'excusera de le citer si longuement, je vous invite d'ailleurs à lire son analyse intégrale.

Personnellement, tout ça me donne beaucoup à réfléchir, et je me demande souvent si la relation entre journalistes et blogueurs se caractérise davantage par les distinctions qui les séparent plutôt que par les complémentarités qui les unissent. C'est selon, probablement. Qu'en pensez-vous ?


P.S. Pour continuer la conversation...

, , , , , , ,

vendredi 25 mai 2007

Reportlinker : la cata se confirme

Reportlinker : la cata se confirme

Retour sur un précédent billet, la verticalisation des moteurs de recherche, dans lequel j'exprimais une critique de Reportlinker sur son coût excessif, chose largement corroborée par la suite. J'étais alors contacté par Nicolas Bombourg, l'un des deux fondateurs, qui me proposait un accès gratuit d'un mois pour bêta-tester le moteur et, en échange, leur faire remonter toutes les bonnes idées qui me viendraient à l’utilisation de l'outil.

Le 19 avril je recevais le code d'accès et j'effectuais des tests dans la foulée. J'envoyais à Monsieur Bombourg ce que je pensais être mon premier feedback dans la soirée, où j'identifiais six catégories de problèmes. Je vous livre le message tel que je le lui ai envoyé (légèrement adapté pour tenir compte de l'absence des captures d'écran).
1. Incohérences entre titre document et document lui-même

Exemples :

- Titre annoncé : « Téléphonie Mobile et UMTS, Evaluation de la taille du marché dans le monde »
Concrètement : rapport annuel 2004 d'une société luxembourgeoise.

- Titre de l’ « étude » annoncée : « Assurances, Evaluation de la taille du marché, Russie »
En réalité, simple dépliant publicitaire décrivant les activités de la société Kazna, qui évolue dans le domaine de l’assurance, certes, mais point d’évaluation sérieuse du marché de l’assurance en Russie.

2. Problèmes de codage (IE, Firefox ?)

Sur Firefox, tous les mots accentués sont systématiquement tronqués. Résultat, lorsqu’on clique sur le lien avec un codage erroné : aucun résultat. Il faut remettre les accents pour obtenir les résultats.

3. Liens inactifs, critères aussi !

Si je clique sur l’année 2007, qui m’annonce 725 documents, rien ne se passe, les résultats sont les mêmes que ceux des autres années, et les années ne correspondent pas : par ex., deuxième doc = 2006

Quand j’essaie de cliquer sur les docs, les liens ne sont pas actifs sans qu’on comprenne pourquoi.

Autre exemple, en donnant 2007 pour critère : années affichées des 6 premiers doc : nov. 2002 – mars 2005 – mars 2003 – mars 2006 – septembre 2006 – août 2001, mais aucun daté 2007 ! Où sont passés les centaines de documents annoncés ?

4. « Fraîcheur des documents », par ailleurs disponibles en libre accès sur Google

Sur les dix premiers docs téléchargés, dont la date de publication est majoritairement comprise entre 2003 et 2005, j’ai testé Google et tous sont trouvables et téléchargeables via le moteur.

Celui-ci, http://www.openwide.fr/ , qui annonce « Logiciel, Tendances et évolution du marché » date carrément de 2002, un peu dépassé pour les tendances du marché.

5. Liens brisés

Pour cet autre : « Fenêtre et Peintures, Segmentation du marché, Europe et Afrique », le lien de téléchargement ne mène nulle part (de plus la date de mise à jour annonce février 2006, ce qui en ferait un document plutôt « récent » par rapport aux autres).

Idem pour un autre doc du Ministère des Transports du Canada.

6. Quelques autres problèmes, dont la lenteur du serveur dans les réponses, etc.

Conclusion : pour l’instant, j’ai passé près de deux heures dans mes recherches sans véritablement trouver de document pertinent et à jour. Au niveau qualitatif de l’expérience utilisateur, c’est le zéro pointé. Quant au rapport qualité-prix, j’irais plus vite en surfant sur Google, je trouverais de meilleurs documents, et c’est gratuit. Donc si en plus j’avais payé pour ce service, je vous dis pas dans quel état d’esprit je serais.
Dans un premier temps, Monsieur Bombourg a accusé réception (Je suis en déplacement et regarderai vos retours en détail avec intérêt), et puis après, plus rien. Ni le lendemain ni durant les jours qui ont suivi. Silence radio.

Dans un message laissé sur le billet de Jean-Michel Billaut, grâce auquel j'avais découvert ce "service", initialement je faisais le commentaire suivant :
...j'ai passé deux heures à tester l'outil et les résultats sont bien pires que ce à quoi j'avais pensé au départ. J'ai d'ailleurs adressé un compte-rendu détaillé à Monsieur Bombourg, qui n'y a pas donné suite.
Et contrairement à ce que j'ai dit sur mon blog, je n'envisage pas pour l'heure d'informer le lectorat d'Adscriptor de ce compte-rendu, car je n'aime pas m'acharner. J'espère juste qu'il fera réfléchir les personnes concernées.
Et, en effet, telle était mon intention au départ. Toutefois, à son insu, Monsieur Bombourg m'a fait changer d'avis : une dizaine de jours plus tard, j'ai voulu refaire des tests pour confirmer ou infirmer mes premières impressions, or j'ai découvert avec stupeur que mon code d'accès n'était plus valide. Annulé, purement et simplement.

Ce qui m'a mis très en colère. Si on me dit « Vous pourrez y accéder pendant un mois. », la moindre des choses, c'est de tenir parole. J'ai passé plus de 2 heures de mon temps que j'aurais pu employer beaucoup plus utilement, donc le premier des respects à mon égard était de donner crédit à la parole donnée, ce que moi j'ai fait de mon côté.

J'aurais d'ailleurs aimé avoir une réponse argumentée à mes critiques, plutôt qu'un silence qui vaut acquiescement et traduit une incapacité chronique à se remettre en question. Ce qui n'est pas une bonne chose lorsqu'on se vante d'être dans la mouvance Web 2.0 ou Web 3.0. Enfin, pour conclure, je laisse la parole à Pascal, qui a commenté à ma suite (le 3 mai dernier) sur le blog de Jean-Michel Billaut :
Pareil pour moi qui ai eu le droit de tester aussi... J'ai vraiment essayé de lui donner sa chance à ce moteur, en cherchant diverses choses pour un usage réel (pas juste des recherches pour le plaisir d'en faire) mais les résultats sont vraiment mauvais à tous points de vue... À oublier vite...
Oui, c'est bien la seule expression qui convient, Reportlinker, à oublier vite ! Sans parler des économies... Monsieur Bombourg, quand on prétend vouloir jouer le jeu, il faut le jouer jusqu'au bout. Enfin, oser dire que Reportlinker se distingue de Google CSE par l'aspect sémantique, faut vraiment pas craindre !


, , , , ,

jeudi 24 mai 2007

La navigation directe : une affaire d'argent (beaucoup, beaucoup, beaucoup d'argent)

La navigation directe : une affaire d'argent (beaucoup, beaucoup, beaucoup d'argent)...

Premier élément
Deuxième élément
1 + 1

* * *

Après plusieurs billets consacrés à GYM et un long intermède politique (une fois n'est pas coutume), je voudrais revenir sur un sujet que j'affectionne particulièrement : les noms de domaine.

J'ai déjà eu l'occasion d'expliquer comment fonctionne le second marché ou les taste-domaines, de parler de la longue traîne ou de l'ICANN, et surtout de montrer les abus et les rouages du business que font des acteurs tels que GoDaddy, eNom (également impliqué dans le désastre RegisterFly) ou Google, qui n'est pas le dernier puisqu'il joue sur tous les tableaux, notamment avec les AdSense (même si l'orientation pourrait changer, ce qui serait heureux).

Mais aujourd'hui je voudrais vous parler d'un risque. D'un danger, qui ... risque de nous tomber sur le coin du museau sans qu'on s'en aperçoive, et surtout sans que personne n'y trouve rien à redire une fois qu'on sera mis devant le fait accompli. Alors je préviens, c'est tout. Sans grande illusion puisqu'à mon corps défendant je vois ce risque danger se dessiner de façon au moins aussi inéluctable que le profilage en série...

Mais commençons par le commencement, à savoir la navigation directe : le type-in traffic comme disent les anglo-saxons, c'est-à-dire la saisie directe du nom de domaine dans la barre d'adresse du navigateur, une alternative à la recherche sur les moteurs avec de meilleurs taux de conversion, ce qui semble d'ailleurs faire de l'ombre à Google.

Une alternative non négligeable puisqu'on évalue la fourchette des internautes qui naviguent de cette manière entre 10 et 15% du total. Donc lorsque l'on sait qu'au dernier trimestre 2006, Verisign a traité en moyenne 24 milliards de requêtes PAR JOUR uniquement sur les extensions .COM et .NET, ça peut donner une légère idée de ce dont on parle... (Voulez-vous que je répète ? : « VeriSign processed an average of 24 billion .com and .net queries per day in the fourth quarter of 2006... »

VeriSign, donc, qui est mieux placée que quiconque pour connaître les chiffres, a compris très tôt tous les bénéfices potentiels qu'elle pouvait tirer de la navigation directe, en introduisant dès 2003 le concept du SiteFinder, qui consistait à rediriger vers ses serveurs toutes les saisies de domaines inexistants en .COM et .NET (saisies erronées soit à cause de fautes de frappe soit parce que les domaines entrés n'étaient pas enregistrés). Ce fut un tollé général, davantage pour des questions liées à la vie privée des internautes que pour des questions techniques, et même si apparemment Verisign a perdu son procès, cette affaire est indirectement à l'origine du renouvellement par l'ICANN de son contrat de Registre agréé.

Or que se passe-t-il 4 ans plus tard (SiteFinder remonte à sept.-oct. 2003) ? Dans les principaux contrats d'agrément signés avec les registres, l'ICANN a introduit une clause (je ne les ai pas tous vérifiés, mais elle est présente pour les extensions .ORG, .BIZ, .INFO), généralement à la Section 3.1(f) de l'ARTICLE III (Covenants), intitulée Traffic Data, qui dit exactement ceci :
Nothing in this Agreement shall preclude Registry Operator from making commercial use of, or collecting, traffic data regarding domain names or non-existent domain names for purposes such as, without limitation, ...
(...)
Nothing contained in this section 3.1(f) shall be deemed to constitute consent or acquiescence by ICANN to an introduction by Registry Operator of a service employing a universal wildcard function.

Traduction

Rien dans cet accord n'empêche le Registre de collecter ou d'exploiter commercialement les données statistiques concernant le trafic des noms de domaine existants OU NON, à des fins, sans que la liste soit exhaustive...
(...)
Aucune des dispositions de la présente section 3.1(f) ne sera réputée impliquer le consentement ou l'acquiescement de l'ICANN à l'introduction par l'opérateur du Registre d'un service employant une fonctionnalité de jocker universel.
Maintenant, pour ce qui concerne Verisign, si la clause n'est pas présente pour le .NET, elle est bel et bien là pour le .COM, l'ICANN se montrant encore plus explicite :
Nothing contained in this section 3.1(f) shall be deemed to constitute consent or acquiescence by ICANN to a re-introduction by Registry Operator of the SiteFinder service previously introduced by the Registry Operator on or about September 15, 2003, or the introduction of any substantially similar service employing a universal wildcard function intended to achieve the same or substantially similar effect as the SiteFinder service.

Aucune des dispositions de la présente section 3.1(f) ne sera réputée impliquer le consentement ou l'acquiescement de l'ICANN à la réintroduction par l'opérateur du Registre du service SiteFinder, précédemment introduit par ce même opérateur aux alentours du 15 septembre 2003, ni à l'introduction d'un service sensiblement identique employant une fonctionnalité de jocker universel, qui aurait des buts et des effets sensiblement identiques à ceux du service SiteFinder.
Donc, au plan légal, la question que je me (vous) pose est celle-ci : « Quelle est la portée juridique de cette phrase (Aucune des dispositions de la présente section 3.1(f) ne sera réputée impliquer le consentement ou l'acquiescement de l'ICANN...) ? »

Je ne suis pas spécialiste du droit des noms de domaine, mais si les mots veulent dire ce qu'ils disent, ça signifie tout simplement que l'ICANN n'entend pas cautionner cette pratique, sans l'interdire formellement pour autant...

C'est le premier élément. Passons au second. [Début]

* * *

Les ccTLDs (Country Code Top-Level Domains) sont les extensions correspondant aux codes pays, dont l'utilisation est en hausse constante (voir les stats). Selon Verisign, fin 2006 on comptait 43,7 millions de domaines enregistrés en codes pays (soit une augmentation de 31% par rapport à fin 2005), dont plus de quatre millions enregistrés durant le dernier trimestre 2006 (soit 10% de mieux que le trimestre précédent. L'extension la plus en vogue est le .cn (Chine), tandis que 42 autres codes pays connaissent un taux de progression à deux chiffres, dont le .se (Suède), .es (Espagne), .ru (Russie), .at (Autriche).
2006 ended with 43.7 million ccTLDs, a 31 percent increase over the end of 2005. Just over four million ccTLDs were added in the fourth quarter of 2006, a 10 percent growth over the third quarter. This is the largest quarterly growth for ccTLDs. The growth seems to be driven in large part by .cn (China) which added more than 500,000 names in the fourth quarter alone, a 43 percent increase quarter over quarter. While China made a large impact, the growth was widespread with fifty-two ccTLDs experiencing double-digit growth including .se (Sweden), .es (Spain), .ru (Russia) and .at (Austria).


En outre, comme le reconnaît l'ICANN, les relations avec les opérateurs des registres pays sont plus complexes à gérer (These relationships are more complex, because of the varying circumstances ... of different ccTLDs and the organizations that operate them).

Prenons l'exemple du Cameroun (.cm) et de Kevin Ham, fondateur de Reinvent Technology (plus ici).

En exploitant un brevet déposé par Robert Seeman en 2006, n° 20060053213, intitulé « Method of handling web page requests from a browser » (Méthode de traitement des requêtes d'affichage d'une page Web à partir d'un navigateur), Kevin Ham a passé un accord avec le premier ministre de ce pays, Monsieur Ephraïm Inoni, de sorte que tous les type-ins ayant une extension .cm saisis par les internautes finissent sur un site, Agoga.com, qui compte actuellement la bagatelle de ... 8 millions de visiteurs uniques par mois ! Si Adscriptor faisait ça, je crois que je mettrais des Adsense dessus. :-)


Essayez cette requête, vous verrez que les pubs sont servies par ... Yahoo! Qui n'a pas commis l'erreur de Google, de ne pas enregistrer son extension en .cm (la redirection de Google.cm sur un autre site qu'Agoga étant due uniquement au souci de M. Ham d'éviter quelque casse-tête juridique...).

Mais le brevet va plus loin, puisque s'il mentionne expressément les cinq extensions qui sont des typos des .COM et .NET [".cm" (Cameroun), ".om" (Oman), ".co" (Colombie Britannique), ".ne" (Niger) et ".et" (Éthiopie)], il est beaucoup plus générique dans ses revendications (1. A method of handling a request from a browser for a web page with a given TLD that an end-user has entered into the browser URL line, comprising the steps of: (a) determining whether the URL defines a web page that exists for that TLD; (b) if it does not exist, then providing for a domain name server to automatically direct the browser to at least one web site and not provide an error message; characterised in that the TLD has been erroneously entered by the end-user as a ccTLD instead of a TLD selected from the set of .com and .net TLDs.)... [Début]

* * *

Une info qui va faire son petit bonhomme de chemin puisqu'elle a été relayée avant-hier par Michael Arrington lui-même et reprise sur Techcrunch France, où elle est donnée brute...

J'espère donc que la présente analyse vous permettra d'y voir plus clair, ma principale crainte étant qu'en faisant 1 + 1 on puisse un jour se retrouver avec un certain nombre de registres qui mettront en œuvre ce genre de pratiques, sans que rien ne puisse légalement les en empêcher.

Mais bon, je me trompe peut-être. Du moins je l'espère. [Début]


, , , , , , ,

dimanche 20 mai 2007

Google, the serial Profiler

Google, the serial Profiler

Introduction
Le brevet qui fait peur
Sur Internet, la gratuité est-elle gratuite ?

* * *

Introduction

Je suis toujours très étonné de voir que les gens s'étonnent des implications infinies qu'a et qu'aura de plus en plus Internet sur nos vies privées. Et de voir des levées de bouclier plus ou moins étendues, plus ou moins consensuelles, contre l'espionnage et le profilage comportemental qui menacent le respect de nos libertés individuelles, de nos choix personnels et professionnels, de notre aptitude à décider, etc.

De même que l'identité numérique est inévitable, le profilage qui en est le pendant naturel l'est tout autant pour les marchands. Car dès que nous nous connectons à Internet, nos faits et gestes sont traqués, pesés, soupesés, analysés, décortiqués, etc. Sachons-le !

Et ne soyons pas surpris : inutile de faire semblant de croire qu'on pourrait y échapper, inutile de s'indigner (attention, je ne dis pas que s'indigner n'est pas légitime, je dis que c'est inutile, nuance, même si je vais vous paraître désabusé...), les intérêts et les puissances en jeu - économiques et autres - sont trop considérables pour prendre en compte les attentes de l'internaute lambda, dont l'opinion a environ la même densité que la goutte d'eau dans l'océan...

Pour faire une métaphore, l'information aujourd'hui, c'est comme le pétrole il y a un siècle et demi, un gisement brut dont l'humanité se nourrira longtemps encore, et les effets collatéraux tels que le réchauffement climatique n'ont jamais empêché les marchands d'imposer l'or noir au monde entier, ni de le rendre indispensable et irremplaçable alors même qu'il pourrait être remplacé. Substituez juste "réchauffement climatique" avec "respect de la vie privée" pour aller jusqu'au bout de l'analogie...

Fini le marketing de masse indifférencié, les techniques de pointe sont depuis longtemps déjà au ciblage socio-démographique, au profilage psychologique et comportemental (qui n'est plus l'apanage des seuls criminels), au géomarketing, etc. Et qu’on le craigne ou s’en offusque n’y changera rien. Depuis longtemps le cynisme et le pragmatisme des publicitaires ont pris le pas sur les bonnes vieilles valeurs d’antan, il faut en être conscients. Sous peine d’immenses et d’intenses désillusions, cruelles certes, mais qui ne changeront pas le cours de l’histoire pour autant.

Déjà, pour les gourous de l’Internet qui décident où, quand et comment placer leur pub pour qu’elle ait l’impact le plus fort et le taux de transformation le plus élevé, il y a longtemps qu’une somme d’individus ne fait plus une collectivité mais un marché, ou plutôt des marchés, autre abstraction bien commode par les temps qui courent. Et qu’on appelle ces individus internautes, utilisateurs, journalistes citoyens ou autres ne fait aucune différence.

Désormais, la segmentation sur Internet se fait tellement efficace que la plus petite unité de découpage est l’individu, qui se trouve ainsi pratiquement dépecé, analysé sous toutes ses coutures et composantes, physiques, mentales, sociales, culturelles, économiques, publiques, privées, familiales, professionnelles, voire sexuelles, raciales et religieuses, etc., au point que chacun est un marché à lui tout seul, chacune un marché à elle seule. Le graal des marketers depuis la nuit des temps…

Qui ne vont pas se priver de continuer à archiver, trier, répertorier, géoréférencer, etc., une masse de données considérable, dont la croissance exponentielle fait passer la loi de Moore pour de la roupie de sansonnet.

Sans oublier que dans un avenir très proche la montée en puissance de la téléphonie mobile, le déploiement mondial de la biométrie et de certaines FET (technologies futures et émergentes), mais aussi de l’Internet des choses, tout cela permettra aux entreprises d’anticiper toujours davantage, voire d’inventer – au plus près (dimension géospatiale) et au plus tôt (dimension temporelle) – nos attentes, nos désirs, nos goûts, etc., avec une exactitude quasi-satellitaire, un niveau de précision jamais égalé à ce jour, et aujourd’hui encore bien moins que demain.

S'il ne fallait citer qu'un chiffre :


[MàJ - 3 juin 2007 : l'adaptation française de cette vidéo est maintenant disponible]

A fortiori, il n'y a pas que les entreprises. Faites confiance aux gouvernements et aux institutions de tous bords pour en faire autant. Avec notre accord ou sans. Du genre « ennemis de l'État ». Les enjeux sont trops gigantesques pour qu'ils s'arrêtent à des détails aussi insignifiants que l'avis des personnes.

Pour employer un néologisme parlant, nous serons vivisséqués et surveillés en permanence. Tout au long de notre existence, du berceau au tombeau. Qu’on le veuille ou non.

Donc si ce préambule est clair, nous pouvons entrer dans le vif du sujet. [Début]

* * *

Le brevet qui fait peur

Cet article couvait en moi depuis quelques mois déjà, mais c'est la lecture du billet de François Grisoni sur l'excellent Googlinside qui en a été le déclencheur. Intitulé « Le brevet qui fait peur », l'auteur s'inquiète de ce qu' « il serait possible d'établir le profil psychologique d'un joueur sans interférer avec l'expérience de ce dernier... », offrant ainsi la possibilité « effectivement très simple et sans doute particulièrement tentant(e) de croiser les données recueillies à l'aide de cette technologie aux informations déposées par le joueur lors de son inscription, rompant ainsi l'anonymat des statistiques. »

Donc, dans un premier temps j'ai voulu en savoir plus sur le dépôt (par BALUJA, Shumeet aux U.S. et par Google hors U.S.) du brevet n° 20070072676, intitulé « Using information from user-video game interactions to target advertisements, such as advertisements to be served in video games for example » (traduction officielle : utilisation d'informations issues d'interactions de jeux vidéo utilisateur pour cibler des publicités telles que des publicités pouvant servir dans des jeux vidéo par exemple), qui décrit de manière assez détaillée un échantillon possible des emplois multiples que l'on peut faire des saisies/actions de l'utilisateur. Exemple avec le point 47 de la description :
User input may include user selections, user dialog, user play, etc. User selections may include, for example, one or more of characters, vehicles (e.g., a specific make of an automobile, car color, engine modifications, car modifications, etc.), tracks, courses or fields (e.g., a specific racetrack, a specific stadium, etc.), teams, players, attire, physical attributes, etc. There are many customizations a user may select from depending on the genre of the game. These selections may reflect the user's fondness, preferences, and/or interests. User dialog (e.g., from role playing games, simulation games, etc.) may be used to characterize the user (e.g., literate or illiterate, profane, blunt, or polite, quiet or chatty, etc.). Also, user play may be used to characterize the user (e.g., cautious, strategic, risk-taker, aggressive, non-confrontational, stealthy, honest, dishonest, cooperative, uncooperative, etc.).
François Grisoni nous fournit une traduction partielle (la partie en gras ci-dessus), qui donne une bonne idée de l'ambiance :
Les dialogues (par exemple dans les RPG, les simulations, etc.) peuvent être utilisés pour caractériser l’utilisateur (par exemple éduqué, profane, franc, poli, calme, etc.). De la même façon, la façon de jouer de d’utilisateur peut être analysée (par exemple courageux, agressif, évite les confrontations, discret, honnête, coopératif, indépendant, etc.).
Par conséquent, s'il est clair qu'on peut légitimement s'en inquiéter, il est tout aussi clair de voir que la stratégie globale des firmes va inexorablement dans ce sens, et que les quantités de plus en plus faramineuses de données qu'elles récoltent tous azimuts à notre sujet seront peu ou prou utilisées pour influer sur nos choix, nos actions, nos comportements, etc., la liste n'est limitée que par l'imagination.

Et même si les sociétés telles que Google cherchent constamment à nous rassurer, il est évident qu'emmagasiner autant de données sans les exploiter serait suicidaire pour une entreprise. La mise à disposition "gracieuse" de plus en plus de services destinés aux internautes n'a d'ailleurs pas d'autre but que de collecter et d'amasser nos données à des fins de traitement, de ciblage, etc. Ce qui nous amène à nous poser la question suivante... [Début]

[MàJ - 29 mai 2007] À propos de Googlinside , voir la vidéo qu'ils ont réalisée. Même muet, il est parlant, ce GMan...



* * *

Sur Internet, la gratuité est-elle gratuite ?

La réponse est évidente : NON ! La seule justification de l'apparente gratuité sur Internet est qu'elle permet d'obtenir un avantage en retour, que ce soit en termes économiques, d'analyse, de positionnement, de pénétration, etc. Ce que les auteurs du rapport sur l'économie de l'immatériel (PDF, 700 ko) appellent « Le paradoxe de la "valeur gratuite" ».

Et au final de mieux capturer l' "utilisateur" dans les rets du filet, le Net, de la toile, le Web, du réseau, le Network, du réseau des réseaux, Internet ! Pour mieux le faire confluer, converger, consommer, etc. Seul point commun, le préfixe con...

Le jour de mon 49e anniversaire, il y a plus d'un an déjà, je sais :-(, dans un billet intitulé Google : the Portal Strategy!, qui tentait de dresser un panorama détaillé de la galaxie de services grâce auxquels Google centralise de plus en plus de données précises sur les internautes, j'envisageais explicitement le rôle de profileur de Google en ces termes :
Par conséquent dans cette logique, à terme plus ou moins rapproché, la prochaine étape consistera très probablement à s’éloigner de la catégorisation des annonces pour passer à leur individualisation. En bref :

fini les AdSenses ciblés, vive les AdSenses personnalisés !

Une (r)évolution qui me semble inéluctable, vu les ambitions affichées par Google : à partir du moment où la firme possède une énorme quantité d’informations sur vous et peut en extraire un profilage systématique et significatif, qu’est-ce qui l'empêchera de vous proposer des AdSenses en fonction de vos préférences ?

Concrètement, cela signifie que deux internautes faisant la même recherche sur le même Data Center de Google, à un instant donné, se verront proposer des AdSenses distincts dans les résultats, ciblés sur leurs centres d’intérêts, tous les produits et services destinés a priori à améliorer votre « expérience de navigation », dans le discours bien rodé de Google, servant naturellement à personnaliser les annonces à votre intention, évidemment différentes de celles du voisin.

Avec à plus ou moins long terme aussi, le risque danger que les résultats fournis deviennent de moins en moins neutres, objectifs, et de plus en plus orientés, pilotés, en fonction des intérêts des parties prenantes (voir les résultats de Google Base qui font déjà de l'ombre aux liens sponsorisés...). Car jusqu'à preuve du contraire, nous devons bien comprendre (et donc, ne pas confondre) qu’un moteur de recherches n’est pas un service public mais une entreprise privée, et commerciale, d’où les inévitables pressions pour « monétiser » ses produits et services et constamment améliorer le fameux ROI… Ça semble couler de source, mais le rappel n’est pas inutile  !
Attention, je ne parle ici que des Adsense (sans évoquer la myriade d'autres usages possibles), non pas de leur personnalisation côté éditeur, au sens d’intégration et d’optimisation des messages de pub dans votre site, mais bien de leur personnalisation côté Google, c’est-à-dire au niveau des Adsense servis par le moteur. Dont je considère qu'avec sa nouvelle accroche subliminale, Universal Search, Ads & Apps, tout est dit.

Ainsi je ne peux que confirmer la conclusion que je tenais dès mars 2006 :

Le client est ROI, certes, mais roi de quoi ?...

Alors, Google profileur en série, oui ou non ? Qu'en pensez-vous ? [Début]


P.S. L'appellation de "profileur en série" dont j'affuble Google vaut tout autant pour les acteurs majeurs du Web, mais pas seulement, d'AOL à Microsoft, de Verisign à Yahoo!, en passant par GoDaddy ou qui vous voulez, il est important de le préciser... [Début]

, , , , , , , , , , , ,

samedi 19 mai 2007

Google voudrait Feedburner : info ou intox ?

Google voudrait Feedburner : info ou intox ?

Franchement c'est de la folie cette fin de semaine, on passe de Google à Microsoft pour en revenir à Google, et tout ça en deux jours !

[MàJ - 24 mai 2007] Rumeur confirmée, c'était donc une "info". Comme l'observe justement Emmanuel, « il y a comme une lassitude à commenter ces rachats successifs. » Je suis bien d'accord :-)

Je viens de lire le billet d'Alternatives numériques qui dévoile l'affaire, en citant comme source Sam Sethi, bien connu de la blogosphère française depuis son différend avec Loïc Le Meur et son licenciement brutal de Techcrunch, apparemment pour avoir publié un billet intitulé Le Web3 the good, bad and ugly (petit rappel des faits)...

Donc est-ce qu'il a pris Techcrunch de vitesse cette fois, nous le saurons dans les prochains jours [MàJ - 24 mai 2007 : oui]. En tout cas le bruit est repris par ValleyWag, qui chiffre le deal à 100 millions de $.

Là encore, l'affaire semble être jugée sérieuse puisqu'elle est traitée par Om Malik et Search Engine Land, entre autres, qui n'ont pas tellement pour habitude de parler sans recouper leurs infos, même s'ils prennent les précautions d'usage.

Donc, info ou intox ? Je n'en sais rien, il est tard, je suis fatigué et je vais me coucher. Bonne nuit :-)


P.S. En tout cas, si tous les grands du Web font leurs emplettes avec cette voracité, il va plus rester beaucoup de sociétés capables de les concurrencer. Et les barrières à l'entrée vont grimper, grimper...

, , ,

vendredi 18 mai 2007

Microsoft contre-attaque avec l'acquisition d'aQuantive

Microsoft contre-attaque avec l'acquisition d'aQuantive

Les analystes en avaient évoqué la possibilité lors du rachat de DoubleClick par Google, une transaction qui inquiétait Microsoft, probablement très préoccupé de vouloir rester dans la course vu que l'écart se creuse de plus en plus avec Google, et bien voilà qui est fait. Au moins, les choses ne traînent pas... Ce rachat succède à celui de Screentonic.

Valeur du deal, 6 milliards de dollars, décidément, les grandes manœuvres se poursuivent. Communiqué officiel : aQuantive, c'est la maison mère d'Avenue A | Razorfish™...

À chaud, ce que je pense de ces mouvements des principaux acteurs du Web est fort bien synthétisé dans une analyse d'Emmanuel Parody, qui répond à la question : « les revenus générés par la publicité pourront-ils rémunérer les investissements, les coûts du stockage et de la diffusion ? »
- La réponse est … non

La réponse est non du moins tant que l’immense majorité de ces revenus est le produit marginal des réseaux publicitaires basés sur la performance (CPC, CPA et autres friandises), mots clés sponsorisés en première ligne. La raison en est simple: ces revenus sont insuffisants pour financer la production de contenus et le grand cirque de l’information citoyenne et blogosphérique ne parvient pas à fournir les conditions d’une production industrielle de flux d’information alliant à la fois fiabilité, régularité et exhaustivité (par honneteté on admettra qu’il peut remplir ca et là l’un ou l’autre des critères). Conditions nécessaires à la fidélisation sur le long terme d’une audience mature et homogène, le prérequis pour tirer le meilleur parti du marché publicitaire. Le vrai. Celui des marques.

Qu’on ne s’y trompe pas, la réorganisation des forces en présence vise avant tout à capter ce marché publicitaire, lequel est pour le moment justement toujours hors de portée de Google. La tentative d’appropriation du Web 2.0 par Yahoo pour en faire l’instrument de ciblage comportemental des internautes est précisément une des pièces de la stratégie des portails pour séduire les annonceurs et reconstruire le modèle traditionnel de rémunération des médias. La direction de Yahoo, majoritairement composée de professionnels de l’industrie des medias n’est certainement pas du genre à se satisfaire d’un pourcentage au clic.
J'espère qu'il ne m'en voudra pas de le citer si longuement, mais d'après moi la clairvoyance de son analyse est l'une des clés pour comprendre ce qui se passe en ce moment...

Je détaillerai davantage dans la journée, je n'ai pas le temps pour l'instant. @ +

* * *

Comme le rapporte Search Engine Land, Microsoft était en compétition avec d'autres acteurs, non révélés, pour l'acquisition d'aQuantive, ce qui explique la plus-value importante versée par la société de Bill Gates : 6 milliards $ pour une valorisation actuelle de 5,2 milliards $, soit 15% de plus que le cours actuel de l'action.


Il faut dire qu'après avoir laissé échappé Double Click, Redmond ne pouvait pas se permettre le luxe de louper le train une fois de plus. Le prix de l'attente, selon certains. Après tout, les poids lourds de cette taille ne sont pas légion dans le paysage mondial...

Pour finir sur une note humoristique, selon les propos de Brad Smith (conseil juridique de Microsoft), rapportés par Greg Sterling pour Search Engine Land, l'acquisition d'aQuantive par sa firme est destinée à promouvoir la compétition, tandis que le rachat de DoubleClick par Google menacerait cette même compétition. En ajoutant que l'opération de Google fait double emploi alors que celle de Microsoft est parfaitement complémentaire...

Microsoft General Counsel Brad Smith took pains to distinguish this deal from Google's acquisition of DoubleClick. He argued this deal will promote competition, while Google's purchase of DoubleClick will reduce competition. He also argued that Google and DoubleClick have "overlapping businesses," while Microsoft and aQuantive are complementary.
Comprenne qui pourra :-) Autant dire que l'hypercompétition a des règles que la compétition ne connaît pas !



, , , ,

jeudi 17 mai 2007

Universal Search, Ads and Apps

Universal Search, Ads & Apps

Évolution :
  1. Google Search, Apps & Maps
  2. Google Search, Ads & Social
  3. Google Search, Apps, Maps, Ads & Social, les deux billets ci-dessus réunis en un seul PDF téléchargeable (645 Ko) pour une lecture plus confortable.

Google, qui devance déjà largement la concurrence, pourrait bien la distancer définitivement grâce à une (r)évolution majeure de son infrastructure de recherche et de présentation des résultats, définie sous l'appellation Universal Search.

Il y a quelques jours, Danny Sullivan nous révélait la nouvelle accroche informelle - ou tag line - de Google : Search, Ads & Apps, qui se démarque à la fois de sa mission "historique" et de sa devise, tout aussi informelle : Don't be Evil, comme pour mieux embrasser les trois domaines de prédilection de Google que sont la recherche, la pub et les applis.

Or voici qu'aujourd'hui Google est prêt à déployer son concept de recherche universelle, qui semble l'aboutissement d'une longue évolution, puisque Marissa Mayer en parlait déjà en 2001.

Vous trouverez d'excellents billets qui abordent le sujet, l'un chez Sergi, l'autre chez Olivier côté français, plus, côté anglais, ce panorama très complet de Danny Sullivan, et le billet de Bill Slawski sur les différents brevets, notamment sur les évolutions de l'interface de présentation des résultats.

En gros, Google poursuit sa logique de verticalisation annoncée depuis longtemps pour aller puiser ses résultats dans un mix de sources telles que Blog Search, Book Search, Catalogs, Code Search, Directory, Google Finance, Google Images, Google Local/Maps, Google News, Patent Search, Product Search (ex Froogle), Google Scholar, Google Video (+ You Tube), Google Web Search, Google Groups (et donc Usenet), etc.

Impressionnant ! Voir un exemple sommaire. Ne nous reste plus qu'à comprendre comment tirer le maximum de la recherche universelle selon Google, qu'on pourrait appeler la recherche en 3D (hauteur + largeur et profondeur)...

Quant à la pertinence qui a fait le succès de Google, gageons qu'elle sera au rendez-vous, même si le problème d'élaborer une échelle commune de pertinence à toutes ces sources n'a pas dû être simple à résoudre, chaque source ayant ses propres règles, comme nous l'explique Eric Enge dans le passage intitulé The Universal Ranking Dilemma :
Once Google made the decision to fully integrate the results, the first thing that needed to be developed was a relevance scoring system that would work on the same numerical scale across all of their properties. The image search engine, for example, has a relevance scoring system of its own. So do their video search properties. But they don't naturally have the same scale. There was no pre-existing way to tell if a particular high ranking image was more important than a web result, or a video search result.
Davantage de détails ici (en anglais). Ou dans le communiqué de presse officiel, qui précise :
The company is also releasing the first stage of an upgraded ranking mechanism that automatically and objectively compares different types of information. As always, Google™ search results are ranked automatically by algorithms to deliver the best results to users anywhere in the world.
The first stage... La première étape... Comme pour dire : une évolution majeure peut en cacher une autre, préparez-vous à de nouvelles surprises sous peu... Oui, je crois qu'on n'a pas fini d'en parler !

Pour les anglophones, si vous souhaitez suivre le webcast, cliquez sur l'image :



P.S. Moi qui voulait faire un billet pour répondre de façon plus détaillée au commentaire de Cédric sur mon analyse de GYM, j'ai été pris de court par l'actualité et, à la lumière des multiples annonces de Google, la réponse à laquelle j'avais pensé hier tombe à côté de la plaque 24 heures plus tard !

, , , ,

Cinq blogs indispensables

Cinq blogs indispensables

Dans la série « Si je ne devais lire que 5 blogs » Otto le Chauffeur m'a tagué pour connaître mes goûts. Réponse très difficile. Tout d'abord parce que mes lectures sont fortement orientées par mes humeurs du jour, par l'actualité, ou simplement par le hasard. Ensuite parce que la blogosphère est d'une richesse inépuisable et insoupçonnée, ce qui fait qu'on n'arrête pas de découvrir d'excellents blogs.

Ceci dit, mes préférés sont ceux qui offrent à leurs lecteurs des ANALYSES. C'est-à-dire qu'ils ne se contentent pas de rapporter les actus du jour, qu'on va retrouver sur des dizaines de blogs répétées presque à l'identique, mais qu'ils donnent à lire une véritable valeur ajoutée. C'est donc dans cette optique que je vous propose mon choix, avec 2 blogs anglo-saxons et 3 français :
  1. Search Engine Land, le nec plus ultra
  2. Read/Write Web, de Richard MacManus
  3. Internet Actu, riche en analyses
  4. Standblog, parce que j'aime l'open source et l'écologie
  5. inFLUX, par un vieux de la veille :-)
Mais que cela ne vous empêche pas de consulter les classements des meilleurs blogs, que ce soit celui de Criteo, de Wikio ou de Didier Durand, même si ce dernier manque d'une mise à jour.

Et puisque j'en parle, à mon tour de demander à Didier, Olivier, Mike, Emmanuel et Jules quels sont leur cinq blogs indispensables.


, ,

jeudi 10 mai 2007

GYM : une analyse

GYM : une analyse

Les indicateurs économiques
Le cool factor

Pour moi, la énième rumeur de rachat de Yahoo! par Microsoft est à mettre au compte des signaux sur lesquels il convient de s'arrêter et de réfléchir.

Dont acte.

Les trois acteurs en présence sont toujours les mêmes :
  1. Google
  2. Yahoo!
  3. Microsoft
Avec G d'un côté, et YM de l'autre.

Le premier caracole en tête, les deux autres suivent, tant bien que mal. Une troisième place qui n'est certes pas dans la nature de Microsoft. Et même si Terry Semel voudrait nous faire croire que les journaux ne racontent que des conneries, perso je préfère penser que le fait qu'un tel argument revienne cycliquement sur le tapis est bien le signe qu'il n'y a pas de fumée sans feu.

Et qu'il témoigne surtout de l'indécision, voire de l'égarement, de deux sociétés cherchant par tous les moyens à combler un retard qui ne cesse de croître. J'imagine que toutes deux sont conscientes qu'elles doivent trouver une forme d'accord ou de collaboration (Semel did make a call for his company and Microsoft to work together on Internet advertising standards) pour contrer Google, tout en sachant qu'une fusion entre deux cultures d'entreprises aussi différentes pourrait déboucher sur un échec retentissant. Sauf à créer une nouvelle entité en détachant MSN de la maison-mère, ce qui serait une bonne façon de faire du neuf avec du vieux et d'éviter une fuite des talents...

Car en réalité, la somme de deux échecs ne fait pas une réussite. Maintenant, dire de Yahoo! et Microsoft qu'elles ont échoué, vous allez me rétorquer que je divague, et pourtant les chiffres parlent d'eux-mêmes.

Ce que Steve Ballmer résume par une formule lapidaire :
Microsoft has the most visitors. Yahoo actually has people spending the most total time with them. And Google makes the most money.

Microsoft a le plus de visiteurs. C'est sur Yahoo que les internautes passent le plus de temps. Et c'est Google qui fait le plus d'argent (ou qui ramasse la mise, si vous préférez).
Donc si G s'en sort le mieux alors qu'il est devancé par YM (ne pas confondre avec ym...) en termes de fréquentation, les raisons de son succès doivent être cherchées ailleurs. Dans les ratios par exemple.

Or à nouvelle donne, nouveaux ratios : les indicateurs économiques servant à évaluer l'efficacité de GYM doivent être à la mesure ... de leur démesure. [Début]

* * *

Les indicateurs économiques

C'est d'ailleurs en lisant une analyse de Victor J. Cook Jr., intitulée Microsoft's $8 Billion Problem, que j'ai eu l'idée de ce billet.

En voici les principaux passages traduits avec son aimable autorisation.
Dans le marketing des entreprises, il y a deux marchés distincts, le marché pour les clients d’une part, le marché pour les capitaux de l’autre, et nous savons qu'ils interagissent. Les hausses de revenus générées par les ventes, qui sont la promesse d’une trésorerie plus abondante, se répercutent sur la capitalisation. Et une meilleure capitalisation impacte le chiffre d’affaires, en fournissant davantage de liquidités à l’entreprise pour financer sa croissance par le biais des acquisitions.

Le tableau ci-dessous, qui se base sur les données 2006, montre que GYM a généré un C.A. global de 61,3 milliards $ pour une capitalisation agrégée de 469,5 milliards $, soit un ratio Cap./C.A. moyen de 7,66. En termes simples, cela signifie que durant l’année dernière les trois sociétés ont globalement créé 7,66 $ de capitalisation pour chaque dollar de chiffre d’affaires.

Or mon étude sur le ratio Cap./C.A. [value/revenue (v/r) ratio] de toutes les entreprises cotées de 1950 à 2005 aboutit à un ratio moyen de 1,1, ce qui veut dire que sur le long terme C.A. et capitalisation s’équivalaient à peu près. Quant à l'écart type du ratio, il a constamment progressé, passant de 1,2 durant les années 50 à +70 sur la période 2000-2005, caractérisée par une volatilité majeure. En prenant un échantillon de 50 472 sociétés sur la décennie 1991-1999, la valeur moyenne du ratio était de 7,92. Par conséquent, la performance de GYM observée ci-dessus (7,66 pour l’année 2006) est plutôt modeste.

(…)

LA RÈGLE DE GERSTNER


La première chose à savoir pour mieux comprendre quel est le moteur de ces résultats, c'est quelle est l'efficacité marketing de chacune des trois entreprises. Dans son livre, Who Says Elephants Can't Dance?, Lou Gerstner (l’artisan de la relance d’IBM) nous donne un principe de base sur l'efficacité marketing d'une entreprise. Une règle simple et révélatrice à la fois : combien ça vous coûte de générer un dollar de C.A. par rapport à vos concurrents ? Ce qu'on appelle la règle du coût par dollar (CPD) de Lou Gerstner…

Quant aux coûts marketing de l’entreprise (EME - Enterprise Marketing Expenses), ce sont tous les coûts supportés en termes de ressources humaines et de programmes destinés à influencer le comportement des clients, des investisseurs, et leur façon de penser, d’agir et de sentir vis-à-vis d’une entreprise.


En 2006, Microsoft a dépensé 6,584 milliards $ en R&D, plus 13,576 milliards $ en frais de vente, frais généraux et frais d'administration (SG&A), qui incluent traditionnellement les coûts vente & marketing. Pour un total EME de 20,160 milliards $. Donc en divisant cette somme par le C.A. 2006, cela nous donne un CPD de 0,455 : il en a coûté à Microsoft 45,5 cents pour générer 1 dollar de C.A.

Or en appliquant le même calcul à Google (1,229 milliard $ R&D + 1,601 milliard $ SG&A / C.A.), le même rapport était de 26,7 cents / 1 pour la société de Moutain View, soit près de moitié moins !

Autrement dit, pour chaque dollar de C.A. généré, Microsoft a dépensé 18,8 cents de plus que Google. Rapporté au C.A. global 2006, cela signifie que Microsoft aurait pu économiser 8,3 milliards $ en ayant le même ratio de performance que Google.
D'où l'analyse de Victor J. Cook Jr., qui chiffre le problème de Microsoft à 8 milliards de dollars. CQFD !

Dans un autre ordre d'idée, je me suis amusé à calculer la productivité par employé chez GYM, en divisant le C.A. par les effectifs (source : WSJ).


Résultat, là encore, Google fait 50% mieux que Microsoft (868 852 $ contre 579 085 $ par personne). Donc, je veux bien qu'à l'occasion on puisse faire dire aux chiffres tout et son contraire, mais parfois leur froideur donne une image assez fidèle de la réalité.

Or dans les trois cas ci-dessus, YM se situe dans la moyenne, alors que G s'en détache nettement. Et bien que Yahoo! et Microsoft aient d'excellentes performances (quelle n'est pas l'entreprise qui aimerait se vanter d'avoir des résultats pareils ?), Google est largement devant avec un différentiel énorme lorsque l'on parle d'hypercompétition... [Début]

* * *

Le cool factor

Pour autant les statistiques n'expliquent pas tout, y compris l'engouement et la préférence des internautes pour Google, qui sont plutôt à mettre sur le compte de ce que les anglo-saxons appellent le "cool factor", que je traduirais par "capital sympathie", une notion totalement étrangère à Microsoft et qui ne peut certes pas s'acheter, même avec quatre fois plus de liquidités que son concurrent !

Le capital sympathie de Google

Outre ses fameux intemporels, je dirais que le principal attrait de Google est l'ouverture, à quoi Microsoft oppose une conception propriétaire farouche qui fait de nous des clients captifs. Or avoir des clients captifs, c'est bon pour les monopoles, mais dès que ceux-ci tombent, les clients s'en vont. Et la legacy des produits Windows, Office & Co, même si elle se fait encore sentir, et comment, a de plus en plus tendance à se dissiper.

Observons deux signes qui ne trompent pas, l'un chez Google, l'autre chez Microsoft.

1. Dans GMail (dont je recommande vivement l'utilisation à quiconque), lorsque je reçois un document Word, Google me propose soit de le télécharger, soit de le voir en HTML, soit de l'ouvrir dans Google Docs, et c'est gratuit.


2. En revanche si un collègue m'envoie un fichier .docx, .xlsx ou .pptx. (nouvelles extensions d'Office 2007) je ne peux pas les ouvrir avec mon actuelle version de Word, Excel ou Powerpoint. Il faut juste que je passe à la caisse. Et pourtant j'ai déjà payé. Consternant ! À ce compte-là, je préfère de loin adopter OpenOffice qui m'offre gratuitement des fonctionnalités identiques, et se paie même le luxe de mieux gérer les gros fichiers que Word, j'ai eu l'occasion de le constater à maintes reprises.

Ceci étant, bien que ma seule hâte soit d'écarter définitivement les produits Microsoft de mon ordinateur, je ne le fais pas - encore - pour une autre raison. En effet, ce ne sont pas les applications bureautiques qui me freinent, c'est le système d'exploitation. Aujourd'hui Windows XP, et demain très probablement Vista. Pourquoi ? Parce que je ne suis pas suffisamment geek pour passer à Linux et aux logiciels libres, dont l'utilisation demande - encore - une expertise informatique que je n'ai pas. Et malheureusement je ne connais pas d'autre alternative à ces deux OS.

Donc pour finir, si j'avais un conseil à donner aux compères Brin, Page & Schmidt, ce serait de nous sortir vite fait un système d'exploitation signé Google, qui nous changerait par sa qualité, sa simplicité, sa rapidité, sa gratuité, son universalité, son originalité et son interactivité. Selon moi, ce serait vraiment la killer app pour se débarrasser définitivement de Microsoft.

Car aujourd'hui ce n'est pas tellement d'une connexion dont ont besoin les internautes qui se branchent via leur ordi, ce serait plutôt d'un système d'exploitation léger qui les libérerait de l'usine à gaz Microsoft. C'est selon moi le plus gros obstacle à la percée du webtop, car la firme de Redmond nous tient captifs bien plus par son OS que par ses applications de bureau, de jeu ou tout ce que vous voudrez.

Et dans la transition du desktop au webtop et, demain, au mobtop, le premier acteur qui sortira un système d'exploitation ayant une prise en main intuitive et conviviale décrochera un avantage phénoménal sur les autres.

Enfin, c'est mon avis. Un bel atout à jouer pour Yahoo! Qu'en pensez-vous ? [Début]


Liens connexes :
, , , , , , , , , ,