vendredi 1 août 2008

Gouvernance Internet : mainmise des Etats-Unis réaffirmée

Gouvernance Internet : la mainmise des États-Unis réaffirmée (avec force)...



1. Rôle du DoC


2. Rôle de l'ICANN


3. Rôle de Verisign


Suite...



* * *


L'Administration US chargée des Télécoms et de l'Information, la NTIA, émanation du DoC - Department of Commerce, vient d'envoyer une lettre à l'ICANN, dans laquelle elle réaffirme sans ambiguïté, et avec force, sa mainmise sur la racine de l'Internet. Le dernier paragraphe suffit pour comprendre :
The Department believes strongly that it is important to clarify that we are not in discussions with either party to change the respective roles of the Department, ICANN or VeriSign regarding the management of the authoritative root zone file, nor do we have any plans to undertake such discussions. Consistent with public statements made by the United States government starting in 2000 and reinforced by the 2005 U.S. Principles on the Internet's Domain Name and Addressing System, the Department, while open to operational efficiency measures that address governments’ legitimate public policy and sovereignty concerns with respect to the management of their ccTLD, has no plans to transition management of the authoritative root zone file to ICANN as suggested in the PSC documents.
En bref : « Nous n'avons engagé aucune discussion (ni n'avons aucune intention de le faire) avec qui que ce soit pour modifier quoi que ce soit aux rôles respectifs du DoC, de l'ICANN et de Verisign relatifs à la gestion de la racine de l'Internet. »

À noter la différence de ton avec la lettre d'avril dernier, même s'il faut savoir lire entre les lignes...

Extraits de précédents billets, adaptés en me limitant à l'aspect "gouvernance de l'Internet", voici un récapitulatif de ces rôles. [Début]

* * *

1. Rôle du DoC

Le 30 septembre 2006, le Department of Commerce (DoC) des États-Unis a fait jouer le « droit de préemption » qu'il s'était réservé en renouvelant le protocole d'entente (Memorandum of Understanding - MoU) pour conserver sa tutelle sur l'ICANN et sa mainmise sur le contrôle d'Internet.

Comme l'explique si bien quelqu'un sachant de quoi il parle, Stephan Ramoin (Gandi) :
Le système qui gère les noms de domaine est clairement identifé :

- Le Department of Commerce (DoC) américain est l'organe décideur des choix stratégiques via une de ses émanations, la NTIA,
- La NTIA délègue à L'ICANN (une association) la gestion administrative des noms de domaines,
- L'ICANN choisit les prestataires techniques pour la gestion au jour le jour et l'exploitation des extensions générales (Verisign pour le .com et le .net, PIR pour le .org, Affilias pour le .info etc ...), et les pays font leur choix sur leur extension nationale.
(...)

Donc ne pas confondre ce protocole avec l'accord IANA (Internet Assigned Numbers Authority), qui consiste à « préserver les fonctions de coordination centrale de l'internet dans l'intérêt de la communauté », avec en tête, les missions de zonage du monde avec attribution d’adresses IP à des organismes locaux (Apnic, Arin, Lacnic, ou pour l’Europe, Ripe Ncc), pour lequel l'ICANN a été reconduit jusqu'en 2011, le 15 août 2006.

Un droit détenu par l’Icann depuis 1998. Depuis sa création, en réalité. Que l'on pourrait virtuellement faire remonter au 1er juillet 1997, lorsque Bill Clinton chargea le Secrétariat d'État au Commerce de privatiser le DNS (Domain Name System) afin d'accroîte la compétition et de faciliter la participation internationale à la gestion du système. Un Livre vert fut publié le 20 février 1998 (cf. background), et l'ICANN créé, suite à ces événements.

Chose étrange, le jour même de la sortie du Livre vert, la Commission européenne publiait une communication intitulée « INTERNATIONAL POLICY ISSUES RELATED TO INTERNET GOVERNANCE - COMMUNICATION TO THE COUNCIL FROM THE COMMISSION » (Problèmes de politique internationale liés à la gouvernance d'Internet - Communication de la Commission au Conseil), dans laquelle l'approche retenue allait sûrement dans le bon sens :
It is essential for the European Union to participate fully in the decisions which will determine the future international governance of the Internet on the basis of the general objectives set out in the recent Commission proposals for increased international co-operation on global communications policy...

Il est essentiel que l'Union européenne participe pleinement aux décisions qui détermineront l'avenir de la gouvernance internationale d'Internet, sur la base des objectifs généraux fixés dans les récentes propositions de la Commission pour intensifier la coopération internationale sur les politiques mondiales des communications...
Certes, en 10 ans, beaucoup de chemin a été parcouru ... à rebours !

Avec le DoC qui continue de souffler le chaud et le froid, puisqu'après avoir laissé croire à une trêve ou qu'il lâchait du lest, d'aucuns ont pu penser que le débat sur la gouvernance d'Internet était relancé en juillet 2006 :
Contre toute attente, lors d'une réunion publique organisée mercredi à Washington, le Département US du commerce a indiqué que les États-Unis pourraient céder une partie de leur contrôle 'historique' d'Internet. Rien n'est fait. Il faudra attendre le 30 septembre 2006 pour savoir quels pouvoirs les Etats-Unis entendent "céder" et sous quelles conditions.
Or il est clair maintenant qu'il n'en sera rien, et ce ne sont pas les illusoires et velléitaires impulsions de Bruxelles qui pourront y changer quelque chose :
La Commission européenne est bien décidée à ne pas relâcher la pression sur la question de la gouvernance de l'internet. Elle prépare activement le premier Forum consacré au sujet, qui devrait avoir lieu à Athènes du 30 octobre au 2 novembre prochain.
Dommage que le partenariat public-privé U.S. DoC-ICANN aura déjà été dûment signé... un mois plus tôt, et pour cinq ans !

Mais vu les progrès accomplis de 1998 à 2006, tant du côté américain (le « faciliter la participation internationale... » du Gouvernement Clinton) que chez nous (« Il est essentiel que l'Union européenne participe pleinement aux décisions qui détermineront l'avenir de la gouvernance internationale d'Internet... »), un petit lustre ne sera pas de trop pour éclairer nos négociateurs, actuellement réduits à formuler des vœux pieux, comme en témoigne cette déclaration de la Commissaire européenne pour la société de l’information et les médias, Viviane Reding :
- Pour l'instant, l'ICANN est sous domination des États-Unis. Le Département américain du commerce a un droit de regard, qui devrait être renouvelé à la fin du mois. Nous avons beaucoup discuté avec eux : idéalement, on préférerait qu'il n'y ait pas de mainmise du tout, mais espérons au moins qu'elle soit la plus légère possible, que ce droit de regard ne comprenne plus de mesures d'intervention...
Au moins, la lettre NTIA mentionnée en début de billet remet les pendules à l'heure. [Début]

* * *

2. Rôle de l'ICANN

Inexistant. La lettre NTIA met brutalement fin à toute velléité de transition. Rappel des événements ayant conduit à instaurer l'ICANN :

Créée en 1979, Network Solutions est l'ancêtre des Registrars. Après le début d'Internet au public, le nommage fut assuré dès 1992 par l'InterNIC (Internet Network Information Center), émanation du Département du Commerce américain (DoC U.S.).

Le nommage consiste à associer un nom de domaine à une adresse IP, tous les noms étant gérés par le DNS, qui traduit les noms en adresses IP et vice-versa. Or les coûts d'enregistrement et de gestion de la base de données ne cessant d'augmenter, le gouvernement américain décida d'en "privatiser" la gestion et signa le 31/12/1992 un accord de coopération avec Network Solutions, par le biais de la National Science Foundation.
This agreement is entered into between the United States of America, hereinafter called the Government, represented by the National Science Foundation, hereinafter called the Foundation or NSF, and Network Solutions, Incorporated, hereinafter called the Awardee.
Aux termes du contrat, Network Solutions Inc. (NSI) (ou NetSol) perçut près de 6 millions $ pour l'administration de la base centrale avant d'instituer, en septembre 1995, le système payant du droit d'enregistrement que nous connaissons encore aujourd'hui. Le "droit" s'élevait à 50$ par domaine et par an pour les deux premières années. L'accord arrivait à expiration le 30/09/1998.

Le 5 juin 1998, un Livre vert du DoC U.S. prévoyait d'assurer une transition vers une nouvelle gestion du DNS en créant un organisme de droit privé ad hoc, sans but lucratif, qui serait opérationnel dès octobre :
4. Creation of the New Corporation and Management of the DNS. The Green Paper called for the creation of a new private, not-for-profit corporation(17) responsible for coordinating specific DNS functions for the benefit of the Internet as a whole. Under the Green Paper proposal, the U.S. Government(18) would gradually transfer these functions to the new corporation beginning as soon as possible, with the goal of having the new corporation carry out operational responsibility by October 1998.
Ce fut donc la création de l'ICANN, dont la collaboration avec le gouvernement fut sanctionnée par l'accord du 25 novembre 1998.

Entre-temps, le 1er octobre, le contrat entre National Science Foundation et NetSol repassait sous l'autorité du DoC et était prolongé jusqu'au 30 septembre 2000, ce qui faisait de la société l'acteur incontournable de l'enregistrement des noms de domaine dans les extensions .COM, .NET et .ORG., même si la transition prévoyait une ouverture de son quasi-monopole à la concurrence.

De nouveaux accords furent donc signés par NetSol en novembre 1999 avec le DoC et avec l'ICANN, et le 10, un accord tripartite (DoC - ICANN - NSI) prévoyait d'étendre la gestion des registres .COM, .NET et .ORG jusqu'au 9 novrembre 2003, ou jusqu'au 9 novrembre 2007 si la gestion des registres avait été scindée de la société avant le 9 mai 2001.

Or NetSol fut rachetée 21 milliards $ par VeriSign le 7 mars 2000 (voir également cet article), qui prit ainsi le contrôle du registre des TLD (y compris .EDU), pour ne conserver ensuite que les 2 plus lucratifs (.COM et .NET) et déléguer la gestion du .ORG à PIR (Public Interest Registry, émanation de l'ISOC).

Fin octobre 2003, lorsque VeriSign "brada" Network Solutions pour 100 millions de dollars, en fait elle ne revendit qu'une coquille vide en conservant ses trésors de guerre : les .COM et .NET. [Début]

* * *

3. Rôle de Verisign

Le 29 novembre 2006, le Département du Commerce des États-Unis approuvait définitivement l'accord conclu entre l'ICANN et Verisign pour mettre fin au procès qui les opposait :


Un accord accompagné d'un avenant de 95 pages (PDF), qui laisse à VeriSign la gestion du .COM au moins jusqu'en 2012, dont les implications nous échappent encore totalement, mais qui ne manque pas de sel, puisque l'administration US, via la NTIA, bypasse (qu'on m'excuse l'anglicisme) désormais totalement l'ICANN, ainsi reléguée au rang de marionnette, et encore... :
...Based on the consultations undertaken and advice received, the Department negotiated Amendment 30 to its Cooperative Agreement with VeriSign to address competition issues, including pricing and renewal, and Internet security and stability concerns.
(...)
Pricing
VeriSign must obtain prior written approval from the Department of Commerce before any amendments can be made to the pricing provisions of the agreement or execution of a renewal or substitution of a future .com Registry Agreement.
(...)
Renewal
VeriSign must obtain prior written approval from the Department of Commerce before execution of a renewal or substitution of a future .com Registry Agreement.
(...)
Internet Security and Stability
VeriSign must obtain prior written approval from the Department of Commerce before execution of a renewal or substitution of a future .com Registry Agreement.
(...)
En gros, à chaque fois, autant en matière de tarification que de renouvellement de l'accord afin de garantir la sécurité et la stabilité de l'Internet, « Verisign devra obtenir l'accord écrit préalable du Département du Commerce avant de... », ce qu'on appelle une politique d'ouverture bien comprise !

Mais qu'on se rassure, l'acharnement du DoC à vouloir contrôler exclusivement tout ce qui touche de près ou de loin à Verisign n'a pas grand chose à voir avec le Registre du fameux .COM, ou si peu, mais plutôt avec la gestion du système universel d'adressage d'Internet, le DNS, et, à terme, avec celle de son petit frère, destiné à grandir et grandir encore : l'ONS. On n'en parle pas encore, ou très peu, mais croyez-moi, ça ne vas pas tarder, au point qu'on pourrait bientôt davantage évoquer l'ONS que le DNS... Sans compter la relation stratégique étroite et les similitudes poussées entre les deux :
« Longtemps reconnue pour le rôle qu’elle a joué dans le fonctionnement de l’infrastructure critique sous-jacente au DNS et à internet, la société VeriSign développe son infrastructure et son expertise pour soutenir le serveur racine du service de nommage d’objet d’EPCglobal Network (ONS Object Numbering System). »
Source : Rapport du GTI sur les technologies de radio-identification (RFID).

Voici donc la relation entre l'Internet des objets, ou des choses, et Verisign, puisque c'est cette dernière qui gère depuis janvier 2004 l'ONS (Object Name System), le système des noms d’'objets qui sert à identifier les objets physiques sur le réseau grâce à l'’Electronic Product Code, ou code EPC.

Un peu en réponse à l'interrogation inscrite à l'encre rouge dans la présentation (PDF) de SIAIGE : « Le contrat avec Verisign concerne la racine onsepc.com, quid du .COM » ? La réponse est désormais claire, et même si, selon Philippe Gautier, « ce choix est indiscutable d'un point de vue technique, il est pourtant légitime de s'interroger sur la nature du lien qui lie cette société de droit privé à un organisme paritaire comme EPCglobal (héritage de GS1). »


[Début]

* * *

Donc derrière la réaffirmation claire et nette de la mainmise américaine sur le DNS, il est clair que le DoC et Verisign se réservent également la mainmise sur l'ONS. Avec ou sans l'ICANN, qui de toutes façons ne servira plus à rien. Si ce n'est, de temps en temps, à décider la création de quelques nouvelles extensions, histoire de renflouer ses caisses et d'amuser la galerie... [Début]


Partager sur Facebook

, , , , , , , , , , ,

jeudi 31 juillet 2008

Mediaset vs. YouTube, Berlusconi vs. Google


L'info a fait le tour du Web à la vitesse Internet, communiqué de presse officiel ici, version française .
Voyons maintenant quelques approfondissements venant directement d'Italie, puisque c'est de là que ça part et que la plainte a été déposée devant le Tribunal civil de Rome (auprès duquel je suis "expert assermenté", soit dit en passant).
Et puisqu'on parle d'experts, l'expertise pour le compte de Mediaset a été effectuée par Matteo G.P. Flora, qui décrit ainsi le mandat qui lui a été confié :
- deux mois de travail
- un crawling qui a généré 185 Go de trafic
- les fameuses 4 643 preuves (les extraits vidéos appartenant à Médiaset)
- 9 DVD remplis de preuves à charge
- autres recherches et recoupages afférents
- un rapport d'expertise de 5 260 pages et pièces jointes (dont 243 pages d'analyses) (cf. la quinzaine de volumes du rapport ci-dessous)


Je serais curieux de lire la plainte, mais en furetant sur le Web italien à la recherche d'infos, je n'ai pas encore compris la corrélation entre les 325 heures de vidéos reprises sur YouTube et le calcul de la perte pour le groupe, "évaluée" à 315 672 jours (865 siècles !!!) de visionnage de la part des téléspectateurs.
Sans compter le manque à gagner des recettes publicitaires...
Ceci dit, le dossier est confié aux avocats Gaetano Morazzoni, Vincenzo Sangalli, Alessandro La Rosa et Stefano Previti, ces deux derniers du cabinet légal de Cesare Previti (dont Me Stefano est le fils), ami "intime" de Silvio Berlusconi (voir par exemple le scandale Mondadori), qui reprend du service pour Mediaset depuis un certain temps déjà, notamment contre Marco Travaglio, attaqué de tous les côtés...
D'ailleurs, pour en revenir à YouTube, si vous comprenez l'italien, je vous suggère vivement de regarder les vidéos de Travaglio, c'est édifiant...



Au moins, quand on lit Gomorra on sait à quoi s'attendre. Mais quand on lit les ouvrages de Travaglio sur les dessous (de table) de la politique italienne, on se dit vraiment qu'en Italie les politiques sont encore plus ripoux que la mafia... Voir sa présentation de Mani Sporche (par opposition à Mani Pulite, Mains sales vs. Mains propres...) :



Naturellement, en voyant que tout ce matériel est disponible et librement accessible en quantité sur YouTube (voir aussi le blog de Beppe Grillo), on comprend pourquoi Berlusconi en a après Google (il vient d'ailleurs de gagner dans une affaire proche opposant Telecinco à YouTube, et c'est sûrement pas sur Rivideo qu'on va retrouver les mêmes clips...). Et on comprend aussi pourquoi il attaque en faisant appel à Previti, après tout, ça reste une affaire de familles !


Partager sur Facebook
, , , ,

mardi 29 juillet 2008

Knol : Google juge et partie...

Knol : Google juge et partie...

Knol est généralement présenté comme une encyclopédie alternative à Wikipédia, avec trois différences essentielles : un auteur unique et non anonyme pour chaque article, plus la possibilité d'être rétribué via les AdSense.

En revanche, comme sur Wikipédia, les liens sortants sont en nofollow. Autres spécificités ici et .

Donc, Knol : Google juge et partie, pourquoi ?

Nous avons vu récemment plusieurs exemples des chiffres astronomiques de Google, qui affiche 4,3 milliards de pages vues par jour sur l'ensemble de "son" réseau de contenu, comprenant « aussi bien les milliards de pages de résultats générées par le moteur de recherche que les centaines de milliers de "partenaires" - sites et pages Web, blogs, forums, réseaux sociaux, etc. -, sur lesquels s'affichent les pubs AdSense/AdWords » :
Il n'existe pas plus grand réseau de publicité contextuelle au monde.
Or le point commun de ce réseau, jusqu'à présent, c'était que tout le contenu servant d'inventaire était créé par des tiers, hors de Google.

Une donnée fondamentale qui change avec Knol !

Avec Knol, Google crée son "propre contenu" - quand bien même rédigé par des nègres comme le soussigné -, destiné à être indexé par ... Google !

Ce que Wired qualifie de conflit d'intérêt. Tout simplement parce qu'il est facile, voire "naturel" pour Google, de favoriser le contenu maison, en le boostant dans les premières pages de recherche.

Le service est encore trop jeune pour en juger, mais des premières mesures semblent indiquer qu'environ un tiers de l'échantillon se retrouve dans la première page de résultats de Google, une performance impossible à réaliser pour tout autre site qui ne serait pas ... Google, justement !

Donc, la question est : Google devient-il un fournisseur de contenus ? Pour Jason Calacanis, la réponse est évidente : OUI !

Et au-delà de son intérêt dans Mahalo, dont le modèle économique est touché de plein fouet par Knol, son article soulève de nombreux points intéressants, sur lesquels il vaut la peine de s'interroger.

1. Il compare l'écosystème de recherches de Google au système d'exploitation du Web, de facto, dont tous les webmasters doivent tenir compte et dans le cadre duquel tous les sites sont considérés comme des applications !

2. Il rappelle une interview donnée l'année dernière par David Eun, responsable Google pour les partenariats, dans laquelle il déclarait :
La plus grosse erreur d'appréciation que peuvent faire les producteurs de contenus, c'est de craindre et de croire que Google aspire à devenir un opérateur média qui produirait lui-même ses contenus en compétition avec les leurs. C'est une erreur d'appréciation majeure. Nous ne produisons pas notre propre contenu, nous nous considérons plutôt comme une plateforme sur laquelle nos partenaires placent eux-mêmes les contenus qu'ils produisent.

The biggest misconception is that they (content companies) fear Google has aspirations to become a media company, meaning that we would produce and own content that would compete against theirs. That's a major misconception. We don't produce our own content. In fact, we see ourselves as a platform for our partners that do.
3. Entre les lignes, il dit que le problème n'est plus celui de la "propriété" du contenu mais de sa diffusion et de la capitalisation de l'inventaire ainsi créé, raison pour laquelle même si Google imagine qu'il n'est pas fournisseur de contenus puisque ceux-ci ne lui appartiennent pas, c'est totalement faux, car "ça ne marche pas comme ça" (Google believes because they don't own the content that they are not in the content business. Nice try, but no, that's not how it works).

4. Google étant une la source de trafic majeure de nombreux sites (50% du trafic de Digg, 85% pour About.com, 70% pour Wikipédia, etc.), et donc le passage quasi-obligé entre vous et ces sites, il ne gagne de l'argent qu'au deuxième clic, une fois que l'internaute arrive sur ces sites et clique sur les pubs. Des sites qui dépendent du trafic de Google et vont donc se retrouver en concurrence avec Google dès lors que celui-ci mêlera ses propres résultats aux autres dès la première page.

5. Calacanis observe en outre que la création de contenus ne s'arrête pas aux textes mais implique également la vidéo, puisque Google a récemment signé un accord avec un réalisateur connu pour produire des clips vidéo destinés à être diffusés en exclusivité sur YouTube. Une donnée à mettre en rapport avec la loi de Pareto appliquée à la vidéo sur Internet, où 96 % des revenus sont générés par les 58% de vidéos streamées "professionnelles", contre seulement 4% des recettes pour les autres.

En conclusion, comme il le constate justement, tout ça n'est pas un problème jusqu'à ce que ça devienne "votre" problème (You get the idea, it's not an issue until it's your issue).

Alors, Knol : Google juge et partie, à vous la réponse...


Partager sur Facebook


, , , , , , , ,

lundi 28 juillet 2008

Microsoft - Yahoo! : Ballmer and blah-de-blah-de-blah

Ainsi traduisible en français : Ballmer et blabla et blabla ou de-blah-de-blah-déblatérer...

* * *

HIER

Extrait : ... Microsoft était déjà sur Internet à une époque où Google était encore dans les limbes. En 1995, Microsoft proclamait fièrement en page de couverture d'un des nombreux livres consacrés à Windows :


Find out how to get the most out of Windows 95's exciting new Internet tools (du genre : découvrez comment tirer le meilleur parti des nouveaux fabuleux outils Internet que Windows 95 met à votre disposition). Y a de quoi rêver...

Treize ans ont passé, mais ça vaut son pesant d'or avec le recul ! Et je vous passe le détail de la centaine de pages dédiées à Internet, sur 8 chapitres S.V.P., dont le premier s'intitule fort prophétiquement : « The Tough Truth about Internet Searches » (La dure vérité sur les recherches Internet). Ça ne s'invente pas !

- - -

En parallèle, Yahoo! a perdu TOUTES les opportunités sur la même période, dans un acharnement à louper le train - non pas 1 fois mais 10, 20 ou 100 fois - qui n'a d'équivalent que l'entêtement du management à prendre TOUTES les mauvaises décisions au fil des ans ! D'où le déclin durable de l'action Yahoo!

* * *

AUJOURD'HUI

Entre-temps, qu'a fait Microsoft en ligne depuis ? Rien ! Ou plutôt si : un désastre, aboutissant à...

- 617 millions de pertes pour les activités en ligne en 2006-2007, le double en 2007-2008 ! Une position financièrement intenable qui ferait mettre la clé sous la porte à n'importe quelle société, sauf Microsoft, grâce aux bénéfices gigantesques dégagés dans ses autres secteurs d'activité.

- des déclarations fracassantes autour d'un plan "10, 20, 30, 40" aussi hypothétique que fantaisiste :
  1. 10% des pages vues, contre 6% actuellement ;
  2. 20% du temps passé par l'internaute sur les sites de Microsoft, contre 17% actuellement ;
  3. 30% des parts de marché dans la recherche, contre moins de 10% actuellement ;
  4. 40% des parts de marché dans la publicité en ligne, contre 6% actuellement.
Laissons tomber les points 1 et 2, mais quelques précisions sur les 3 et 4 :

3. Actuellement moins de 10% des parts de marché dans la recherche : en réalité c'est entre 6 et 7%, contre +12% en 2006, voire bien davantage selon d'autres analyses ! Donc avant de vouloir gagner trois fois plus, il faudrait peut-être commencer par ne pas perdre deux fois moins...

4. Pour progresser de 6% à 40% sur un marché monopolisé par Google, la seule solution passe(ait) obligatoirement par Yahoo!

- une gestion catastrophique de l'acquisition (manquée) de Yahoo!, probablement bien davantage pour des conflits de personnalité que pour des questions d'argent.

Quant à déclarer à qui mieux-mieux que l'acquisition de Yahoo! serait tactique et non stratégique (cf. présentation - 3,3 Mo)


elle ne fait que refléter l'embarras de Ballmer, qui préfère jouer sur les mots plutôt que d'avouer n'avoir pas la moindre idée de la manière dont Microsoft pourra raccrocher Google demain, qui s'éloigne et creuse de plus en plus l'écart au fil des jours.
Petite parenthèse sur l'aspect "tactique" vs. "stratégie" : si Ballmer était prêt à dépenser presque 56 milliards de $ en janvier 2007 pour l'acquisition de Yahoo! et tout juste 10 milliards de moins un an plus tard au nom d'une simple "tactique", on se demande jusqu'où ils iront chez M$ lorsqu'ils déploieront leur véritable "stratégie". Mais là encore, et toujours, on connaît celle de Google, clairement établie, tandis que Microsoft cherche encore une véritable stratégie tactique pour sa présence en ligne. Et ce depuis déjà plus de 13 ans, exactement comme Yahoo!

Avec l'acquisition manquée en point d'orgue. Car j'aimerais qu'on m'explique au nom de quoi Microsoft a retiré son offre au dernier moment, alors que pour un dollar de plus l'acquisition était pratiquement finalisée, et tout ça après un an et demi d'acharnement ? Et si Ballmer croit vraiment qu'il peut se passer de Yahoo! pour arriver à ses fins (voir plus haut le fameux plan "10, 20, 30, 40"), alors c'est pire que ce que je pensais...

Comment ? Vous dites ? C'était une simple tactique ! Ah ! OK. Alors comme ça tout est clair :-)
- aucune identité bien définie en ligne : Microsoft, MSN, Live.com, Internet Explorer ? Qui fait la différence ? Quelle est la différence ? Sur le Web, Google c'est Google, Yahoo! c'est Yahoo!, Microsoft c'est un magma de produits-services sans marque unique, et donc, sans promesse unique, sans mission clairement identifiable : Google s'est donné une mission, Yahoo! idem, Facebook et d'autres encore, mais Microsoft :
“(O)ur mission and values are to help people and businesses throughout the world realize their full potential.”
Aider les personnes physiques et morales partout dans le monde à réaliser leur plein potentiel”, ça veut dire quoi ?

Qui trop embrasse mal étreint...

* * *

DEMAIN

Après l'annonce du départ de Kevin Johnson, Steve Ballmer décide une réorganisation visant à séparer Windows/Windows Live de ses activités en ligne. Déjà, ça commence bien, Windows Live n'aurait donc rien à voir avec Live.com, c'est clair comme de l'eau de roche !

Très exactement le contraire de la "synergie" de 2005, lorsque Microsoft avait fusionné Windows et les services en ligne, pour mieux répondre aux exigences des utilisateurs, aux dires de Ballmer (By bringing together the software experience and the service experience, we will better address the changing needs of our customers' digital lifestyles and the new world of work.)

Et il déclare dans la foulée que la révolution Internet est à venir !

Fort bien. Mais si le mieux que Redmond peut faire est du genre BrowseRank, Live Search Cash Back ou mettre Live Search sur Facebook, alors il est probable - et même certain - que cette révolution se fera sans Microsoft. Et quoi qu'il en soit, Steve Ballmer est-il le meilleur atout de la société pour relever les défis de demain ? J'en doute fortement.

Lui, c'est hier et aujourd'hui plutôt que demain (quant à savoir combien de temps durera aujourd'hui...) !

Pendant qu'au fil des jours, Google s'éloigne et creuse de plus en plus l'écart...


Partager sur Facebook

, , , , , ,

dimanche 27 juillet 2008

ECHOS : le projet NanoDataCenters de l'Union européenne

ECHOS : le projet NanoDataCenters de l'Union européenne

Dans son septième programme-cadre (7e PC), l'Union européenne a lancé le 1er mai dernier le Projet NanoDataCenters :
Ce projet propose une solution radicale au service des données et à leur hébergement dans l'Internet du futur. L'architecture actuelle des données est centrée réseau, avec un contenu stocké dans des centres de données directement reliés aux dorsales Internet. Cette approche a plusieurs inconvénients, parmi lesquels les aspects plus critiques pour les centres de données sont la complexité de leur déploiement, leur consommation d'énergie et leur manque d'évolutivité. En rupture totale avec l'approche traditionnelle, le projet ECHOS choisit d'innover avec la mise en place de ce que nous appellerons des nano-centres de données, qui seront déployés dans des dispositifs à la périphérie du réseau (ex. home gateways, set-top-boxes, etc.), accessibles via une nouvelle infrastructure de communication P2P.

Une évolution disruptive pour résoudre la plupart des inconvénients des solutions commerciales actuelles, afin de permettre le déploiement d'applications interactives de prochaine génération. Toutefois, les défis sont nombreux, vu que les données devront pouvoir être accessibles et assemblées à la demande de façon dynamique, en temps réel. Le projet ECHOS assurera la conception et le développement de l'architecture communicationnelle des nano-centres de données, conjuguée à des mécanismes incitatifs et de sécurisation. Le but étant de démontrer qu'ECHOS est une alternative scalable et bon marché aux modèles actuels de service et d'hébergement des données. L'architecture ECHOS sera intégralement mise en œuvre à travers la spécification et l'implémentation des box ECHOS. La gestion et le partitionnement efficaces de ces ressources (box ECHOS) seront assurés par des technologies de virtualisation.

Deux types d'applications interactives - jeux multijoueurs et vidéo à la demande - seront conçues comme preuves de concept. Un banc d'essai à grande échelle sera déployé pour évaluer les avantages et les performances d'ECHOS, dont l'architecture sera soumise aux organismes de normalisation et aux groupes de discussion compétents sur la conception de l'Internet du futur. Ce projet, en phase avec l'agenda stratégique de recherche (SRA) de l'initiative NEM (Network and Electronic Media Platform), devrait aboutir à la commercialisation de box ECHOS. Il en résultera un avantage concurrentiel pour l'industrie et les PME.
Le projet, qui devrait coûter 5 millions d'euros (financé à hauteur de 3 millions d'euros par l'UE, et le reste par les partenaires), est emmené par Thomson et durera 3 ans jusqu'à fin avril 2011.

Les enjeux sont gigantesques, vu les défis posés par les centres de données et les réseaux P2P actuels.

Ceci dit, si l'UE réussit à gagner son pari, cela pourrait rééquilibrer un peu la suprématie proche de l'hégémonie des américains dans ce domaine, avec Google en tête de liste. Ne préconisaient-ils pas chez Verisign de passer au P2P, si l'on veut faire face aux fleuves de données prêts à déferler d'ici peu, notamment avec le déploiement de l'Internet des choses ?

Selon Verisign, rien que
les sites Web en .COM reçoivent actuellement plus de 35 milliards de requêtes journalières, un niveau qui devrait passer à 100 milliards de requêtes/jour dès 2010, avec une progression qui double tous les 18 mois depuis 2000.
Ça en fait du trafic en perspective ! Via Andrew Hendry et Janko Roettgers.


Partager sur Facebook

P.S. Lien connexe : The Future of the Internet (PDF, 2 Mo) (site dédié)

, , , , , ,

vendredi 25 juillet 2008

L'index de Google : 1000 milliards de pages !

L'index de Google : 1000 milliards de pages !

C'est pas moi qui le dis !

Moi je dis juste : Google superlatif !

1000 milliards de pages ! Symbolique.

D'un autre côté, si on considérait dès 2001 que le Web profond (Deep Web) en contenait déjà 550 milliards, alors on se dit que Google a bien avancé, notamment au niveau de l'indexation des contenus dynamiques des bases de données ou des formulaires, mais n'est pas au bout de la tâche !

Car même si Google déclare :
We don't index every one of those trillion pages -- many of them are similar to each other, or represent auto-generated content similar to the calendar example that isn't very useful to searchers.
... pour savoir que les pages sont dupliquées, il faut déjà les avoir crawlées : « Ce graphe de 1000 milliards d'URL est semblable à une cartographie qui aurait 1000 milliards de nœuds » (This graph of one trillion URLs is similar to a map made up of one trillion intersections.) !!!

Et d'ajouter dans la foulée :
But we're proud to have the most comprehensive index of any search engine, and our goal always has been to index all the world's data.
Tout ça bien qu'il semble encore avoir quelques problèmes sur le Web profond, que ce soit délibéré ou non...


Partager sur Facebook

P.S. En outre, quand on pense à la techno derrière, on se dit que c'est pas demain la veille que le BrowseRank va rattraper le PageRank !

Même s'il y en a qui auraient besoin de plus que ça pour être impressionnés :
Here’s a trillion: 1,000,000,000,000

Here’s a googol: 10,000,000,000,000,000,000,
000,000,000,000,000,000,000,000,000,000,000,
000,000,000,000,000,000,000,000,000,000,000,
000,000,000,000,000.

When Google can google a googol URLs at once, then I’ll be impressed.
Excellent !

, , , , , ,

Google PageRank vs. Microsoft BrowseRank

Google PageRank vs. Microsoft BrowseRank

Je viens de lire sur Search Engine Land que Microsoft attaquerait Google superlatif sur la pertinence, en essayant de faire mieux que le PageRank avec le BrowseRank !!!

En gros, un algorithme de classement qui analyserait le comportement de navigation via l'historique du navigateur de l'internaute (est-ce que cela limiterait l'analyse à ceux qui utilisent Internet Explorer ?), et où les utilisateurs voteraient pour l'importance des pages...

On dirait que cela se rapproche de la recherche orientée Digg selon Google...

En comparant les algorithmes PageRank, TrustRank et BrowseRank, l'étude de Microsoft donne l'exemple de classement suivant :


Davantage d'explications ici (en) et (fr). J'ai l'impression que l'info va faire couler beaucoup d'encre, j'aurai sûrement l'occasion d'y revenir...

Mais est-ce cela dont Ballmer a déclaré hier devant les analystes : « But that’s the one thing I’m not going to talk about » ? Ce serait bien possible !



Partager sur Facebook

P.S. Je me demande pourquoi personne ne veut de mon SafeRank :-)

, , , , , ,