lundi 4 août 2008

DoC-NTIA - ICANN : rien ne va plus !

DoC-NTIA - ICANN : rien ne va plus !

Première partie
Deuxième partie
Troisième partie :

Nous avons vu dans les épisodes précédents que le Département du Commerce des États-Unis, qui supervise la gestion des serveurs racines du DNS (sans autres précisions) depuis le 28 janvier 1998, vient de taper très fort sur les doigts de l'ICANN, via la NTIA, en accusant carrément l'ICANN d'avoir failli - gravement - à certaines de ses obligations :
- Le DoC estime que l'ICANN se trouve aujourd'hui dans cette situation (suite au désastre RegisterFly) pour n'avoir pas su faire activement respecter les mesures existantes visées dans l'accord d'accréditation des Registres - RAA (version actuelle, qui remonte à mai 2001).

- Les nouvelles propositions d'amendements de l'ICANN, au lieu de remédier à la situation, auront plutôt comme effet d'exacerber le problème que l'ICANN se propose de résoudre, à savoir la protection des déposants de noms de domaine.

- Le DoC est préoccupé par ces propositions d'amendements pour plusieurs raisons :

1. sur le WhoIs, elles contreviennent aux recommandations émises par le Comité consultatif gouvernemental (Governmental Advisory Committee - GAC). (...) Par conséquent, poursuivre dans cette voie et autoriser l'utilisation de services proxy, tel que proposé aux paragraphes 3.4.1 et 3.12.4, est inopportun, étayé par aucune étude sérieuse sur les utilisations - bonnes et mauvaises - des données du WhoIs (contrairement aux demandes du DoC sur la nécessité de mener ce genre d'étude, demandes soumises à l'ICANN en octobre 2007, février et juin 2008), et incompatible avec les principes du GAC.

2. De plus, l'autorisation par l'ICANN de la mise en œuvre des mesures proposées serait en contradiction directe avec l'Affirmation de responsabilités approuvée par son Directoire le 25 septembre 2006...

3. L'ICANN a enfin proposé aux registreurs ... de ne pas faire conserver les données des déposants par un tiers de confiance : une mesure qui dégage de toute responsabilité l'ICANN et le registreur concerné en cas de faillite de ce dernier ou de mauvaise utilisation des données. En revanche, le déposant du nom de domaine qui aura payé un supplément pour utiliser un service proxy perdra son argent et son enregistrement sans aucun recours. Ce qui perturberait le DNS et les systèmes dépendant du fonctionnement ininterrompu du DNS pour les opérations associées à ces domaines.
Une lettre reproduisant le commentaire de la NTIA, publiée juste après le précédent coup de semonce, par lequel le DoC indiquait à l'ICANN n'avoir aucune intention de transférer la gestion des serveurs racines à l'ICANN, en apparente contradiction avec les engagements pris par le gouvernements des États-Unis depuis une décennie.

Donc, si la seconde lettre explique la première (judicieusement intitulée : améliorer la confiance institutionnelle en l'ICANN...), elle ne manque pas non plus de soulever une série d'interrogations et de perplexités sur la transition du DNS à l'avenir, puisque toute cette histoire semble remettre en question 10 ans de "progrès" vers une gouvernance "plurielle" de l'Internet (sans spécifier ce que l'on met au-dedans de "plurielle")...

Maintenant, que cache réellement ce coup de tonnerre dans un ciel apparemment serein (jusqu'à présent, il ne me semble pas que les relations DoC-ICANN aient été si mauvaises au fil des ans), c'est loin d'être clair.

Et justifier que la gestion du DNS doive rester sine die aux mains du DoC en accablant soudainement l'ICANN de tous les maux ressemble plutôt à une tentative de cacher la merde au chat !

Quoi qu'il en soit, pour avoir osé peut-être un peu trop vite réclamer davantage de liberté, la position de l'ICANN me semble aujourd'hui des plus précaires, la gouvernance de l'Internet mise sur une voie de garage et la gestion du DNS verrouillée pour une durée indéterminée aux mains des États-Unis. Car si l'ICANN n'est plus à même d'être choisie pour gérer la transition au moment-même où celle-ci devrait finalement avoir lieu, qui le sera, comment, et quand ?

Le DoC peut bypasser l'ICANN au profit de Verisign, mais pour combien de temps ? Allez, on en reprend pour 10 ans...

Laissez-moi terminer sur cette citation :
The Internet does no longer need the U.S, the U.S needs the Internet.


Partager sur Facebook

, , , , , ,

dimanche 3 août 2008

DNS : transition, pas transition, that is the question !

DNS : transition, pas transition, that is the question !

[MàJ - 17h30'] Entre la NTIA et l'ICANN, le torchon brûle...

* * *

Dès le "livre blanc" sur le DNS de 1998, la NTIA prend en compte la transition de la gestion du DNS aux mains du secteur privé, à tel point que la dernière section du document s'intitule :
THE TRANSITION

Based on the processes described above, the U.S. Government believes that certain actions should be taken to accomplish the objectives set forth above. Some of these steps must be taken by the government itself, while others will need to be taken by the private sector. (...) A relationship between the U.S. Government and the new corporation must be developed to transition DNS management to the private sector and to transfer management functions.
C'était il y a 10 ans.

Une transition apparemment jamais remise en cause jusqu'à présent, puisque la NTIA lançait une consultation sur le sujet il y a deux ans, à la veille du renouvellement du protocole d'entente (Memorandum of Understanding - MoU) entre l'ICANN et le Department of Commerce (DoC) des États-Unis :
The United States Department of Commerce’s National Telecommunications and Information Administration (NTIA) seeks comment on the continuation of the transition of the technical coordination and management of the Internet domain name and addressing system (Internet DNS) to the private sector.
Ce dont se félicitait Nominet il y a encore 6 mois :
It is clear that an eventual transition to private sector management was envisaged at that time (1998). From more recent public statements made by Department of Commerce senior officers, this appears unchanged.
Une position apparemment intacte jusqu'au revirement de situation de la semaine dernière ! Dont la violence et la soudaineté prennent tout le monde à contre-pied, me semble-t-il, aussi bien l'ICANN que les instances internationales (telles que la Communauté européenne, par exemple).

Alors pourquoi ce changement brusque ? Et pourquoi remettre en question de façon si brutale et unilatérale 10 ans de chemin parcouru dans le sens d'une transition souhaitée et souhaitable ? Je suppose qu'il est encore trop tôt pour que les premières réactions soient rendues publiques (même si ça doit s'agiter dans les couloirs), mais j'ai bien l'intention de suivre tout ça très attentivement.

En attendant je ne peux que m'interroger sur la légitimité du DoC de prendre unilatéralement, et avec tant d'arrogance, ce genre de décision.

Permettez-moi d'abord de répéter - et traduire, cette fois -, le dernier paragraphe de la lettre NTIA :
Le DoC croit fermement qu'il est important de préciser que nous n'avons engagé de discussions avec aucune des parties prenantes pour modifier les rôles respectifs du DoC, de l'ICANN ou de VeriSign au niveau de la gestion de la zone racine, pas plus que nous n'avons l'intention d'entreprendre de telles discussions. Conformément aux déclarations publiques faites par le gouvernement des États-Unis dès 2000, renforcées par le document de 2005 intitulé U.S. Principles on the Internet's Domain Name and Addressing System, le DoC, tout en restant ouvert à la mise en place de mesures opérationnelles efficaces pour répondre aux exigences légitimes des gouvernements en matière de politiques publiques et de problèmes de souveraineté liés à la gestion de leurs extensions pays, ne prévoit pas de transférer à l'ICANN la gestion et l'autorité sur la zone racine de l'Internet, tel que suggéré dans les documents du PSC.
C'est clair et net ! Non seulement nous n'avons engagé aucune discussion avec qui que ce soit, mais nous n'avons pas même l'intention de le faire...

Or dans la mesure où cette transition de la gestion du DNS aux mains de l'ICANN était prévue depuis 10 ans et même inscrite dans les fondements de sa mission (In the Statement of Policy, the DOC stated its intent to enter an agreement with a not-for-profit entity to establish a process to transition current U.S. Government management of the DNS to such an entity...), on ne peut que se demander quelles sont aujourd'hui la nature et la raison d'être de l'ICANN !

Le président de l'ICANN doit se le demander également, puisque Peter Dengate Thrush a eu beau rappeler dès janvier les termes mêmes du "livre blanc" :
The U.S. Government is committed to a transition that will allow the private sector to take leadership for DNS management…The U.S. Government would prefer that this transition be complete before the year 2000. To the extent that the new corporation is established and operationally stable, September 30, 2000 is intended to be, and remains, an "outside" date.
et qu'il y a eu pas moins de 13 rapports d'étapes en 9 ans sur les responsabilités contractées par l'ICANN et sur sa capacité à y faire face, il conclut par deux questions clés :
1. Is Transition still the goal?
2. What is the next step to transition?

(La transition est-elle encore le but, et quelle sera la prochaine étape ?)
en interpelant directement le gouvernement US :

- depuis 10 ans, nous avons rempli les missions que vous nous aviez confiées ;
- au terme de cette période et au terme du Joint Project Agreement de 2006 (ou accord conjoint de projet), sur le postulat de cette réussite, la gestion du DNS devait être transférée à l'ICANN :
The U.S. Department of Commerce (Department) has an agreement (the Joint Project Agreement) with the Internet Corporation for Assigned Names and Numbers (ICANN) for the purpose of the joint development of the mechanisms, methods, and procedures necessary to effect the transition of Internet domain name and addressing system (DNS) to the private sector.
Le JPA était un instrument nécessaire, mais maintenant, faute de conclusion, il risque laisser croire que c'est le gouvernement US qui gère et supervise le DNS au jour le jour :
But now, the JPA contributes to a misperception that the DNS is managed and overseen on a daily basis by the U.S. government.
Donc, en fait, la fin de non-recevoir opposée par la NTIA dans sa lettre répond sèchement aux deux questions posées par Peter Dengate Thrush, mais pas forcément dans le sens auquel on aurait pu s'attendre après 10 ans de cheminement.

Marche arrière, toute ! Sur quels motifs ? Avec quelle légitimité ? Déjà que dans cette histoire la légitimité de l'ICANN et du gouvernement américain est fortement contestée depuis le début, c'est pas la réponse de la NTIA qui va aider à clarifier les choses !

Dès 1999, lors d'une audition devant le Comité en charge du Commerce de la Maison Blanche, Jonathan Zittrain concluait ainsi son discours :
L'ICANN a hérité d'une situation extraordinairement difficile, où tout le monde en attend beaucoup alors qu'elle n'a qu'une infime marge de manœuvre sur les prises de décision.

ICANN has inherited an extraordinarily difficult situation, with high expectations all around, and with almost no discretionary room to move.
Et de mentionner trois alternatives possibles en cas d'échec de l'ICANN :
  1. Une nouvelle entité "fille de l'ICANN" chargée d'améliorer les points où l'organisation aurait failli - option jugée peu probable ;
  2. Une entité intergouvernementale, compte tenu de la nécessité pour le gouvernement US de ne plus faire bande à part (It is hard to imagine the U.S. government alone trying to continue domain name system management responsibilities for the very reasons stated in the White Paper) ;
  3. Laisser faire le marché (a battle would be fought by existing market players for control of the current root) - option tout à fait irréaliste aujourd'hui...
Donc, sur ces trois options, seule la seconde pourrait éventuellement être parcourue, puisque les deux autres n'ont plus absolument aucun sens.

Mais soit que l'on reconnaisse la réussite de l'ICANN et que le Doc lui transfère la gestion du DNS, soit que l'on reconnaisse son échec et qu'on opte pour la création d'une entité de gestion intergouvernementale (et inter-gouvernements), la conclusion est la même : le gouvernement des États-Unis ne peut plus faire cavalier seul !

Ou comment justifieraient-ils qu'après avoir dit et répété à maintes reprises la même chose pendant 10 ans, ils changent brusquement d'avis et décident unilatéralement d'étendre leur emprise sur Internet à la face du monde ?

Bof, apparemment, ils ne daignent même pas justifier leur revirement, la lettre NTIA en témoigne, qui dit juste entre les lignes : c'est comme ça, et pas autrement ! Même si...

Comme dit Martin, les bras m'en tombent. :-)

Pourtant s'ils ne comprennent pas seuls qu'ils ne pourront longtemps soutenir une telle position, intenable (y compris légalement), il faudra quand même bien que quelqu'un le leur dise et leur explique avec vigueur. Nous verrons. Notamment les réactions de l'Union européenne.

En tout cas, le dossier sera chaud pour le prochain Président des États-Unis...


Partager sur Facebook

P.S. Rien ne va plus entre la NTIA et l'ICANN : suite au désastre RegisterFly, la réponse de la NTIA est franchement hostile vis-à-vis de l'ICANN, en se terminant sur cette phrase :
This will cause disruptions to DNS and those systems that depend upon the DNS’s continued uninterrupted operation associated with those domains.
Ceci explique cela ? Quoi qu'il en soit, cette lettre apporte des éléments de réponse à la remise à plat probable des relations NTIA - ICANN... [Début]

, , , , , ,

vendredi 1 août 2008

Gouvernance Internet : mainmise des Etats-Unis réaffirmée

Gouvernance Internet : la mainmise des États-Unis réaffirmée (avec force)...



1. Rôle du DoC


2. Rôle de l'ICANN


3. Rôle de Verisign


Suite...



* * *


L'Administration US chargée des Télécoms et de l'Information, la NTIA, émanation du DoC - Department of Commerce, vient d'envoyer une lettre à l'ICANN, dans laquelle elle réaffirme sans ambiguïté, et avec force, sa mainmise sur la racine de l'Internet. Le dernier paragraphe suffit pour comprendre :
The Department believes strongly that it is important to clarify that we are not in discussions with either party to change the respective roles of the Department, ICANN or VeriSign regarding the management of the authoritative root zone file, nor do we have any plans to undertake such discussions. Consistent with public statements made by the United States government starting in 2000 and reinforced by the 2005 U.S. Principles on the Internet's Domain Name and Addressing System, the Department, while open to operational efficiency measures that address governments’ legitimate public policy and sovereignty concerns with respect to the management of their ccTLD, has no plans to transition management of the authoritative root zone file to ICANN as suggested in the PSC documents.
En bref : « Nous n'avons engagé aucune discussion (ni n'avons aucune intention de le faire) avec qui que ce soit pour modifier quoi que ce soit aux rôles respectifs du DoC, de l'ICANN et de Verisign relatifs à la gestion de la racine de l'Internet. »

À noter la différence de ton avec la lettre d'avril dernier, même s'il faut savoir lire entre les lignes...

Extraits de précédents billets, adaptés en me limitant à l'aspect "gouvernance de l'Internet", voici un récapitulatif de ces rôles. [Début]

* * *

1. Rôle du DoC

Le 30 septembre 2006, le Department of Commerce (DoC) des États-Unis a fait jouer le « droit de préemption » qu'il s'était réservé en renouvelant le protocole d'entente (Memorandum of Understanding - MoU) pour conserver sa tutelle sur l'ICANN et sa mainmise sur le contrôle d'Internet.

Comme l'explique si bien quelqu'un sachant de quoi il parle, Stephan Ramoin (Gandi) :
Le système qui gère les noms de domaine est clairement identifé :

- Le Department of Commerce (DoC) américain est l'organe décideur des choix stratégiques via une de ses émanations, la NTIA,
- La NTIA délègue à L'ICANN (une association) la gestion administrative des noms de domaines,
- L'ICANN choisit les prestataires techniques pour la gestion au jour le jour et l'exploitation des extensions générales (Verisign pour le .com et le .net, PIR pour le .org, Affilias pour le .info etc ...), et les pays font leur choix sur leur extension nationale.
(...)

Donc ne pas confondre ce protocole avec l'accord IANA (Internet Assigned Numbers Authority), qui consiste à « préserver les fonctions de coordination centrale de l'internet dans l'intérêt de la communauté », avec en tête, les missions de zonage du monde avec attribution d’adresses IP à des organismes locaux (Apnic, Arin, Lacnic, ou pour l’Europe, Ripe Ncc), pour lequel l'ICANN a été reconduit jusqu'en 2011, le 15 août 2006.

Un droit détenu par l’Icann depuis 1998. Depuis sa création, en réalité. Que l'on pourrait virtuellement faire remonter au 1er juillet 1997, lorsque Bill Clinton chargea le Secrétariat d'État au Commerce de privatiser le DNS (Domain Name System) afin d'accroîte la compétition et de faciliter la participation internationale à la gestion du système. Un Livre vert fut publié le 20 février 1998 (cf. background), et l'ICANN créé, suite à ces événements.

Chose étrange, le jour même de la sortie du Livre vert, la Commission européenne publiait une communication intitulée « INTERNATIONAL POLICY ISSUES RELATED TO INTERNET GOVERNANCE - COMMUNICATION TO THE COUNCIL FROM THE COMMISSION » (Problèmes de politique internationale liés à la gouvernance d'Internet - Communication de la Commission au Conseil), dans laquelle l'approche retenue allait sûrement dans le bon sens :
It is essential for the European Union to participate fully in the decisions which will determine the future international governance of the Internet on the basis of the general objectives set out in the recent Commission proposals for increased international co-operation on global communications policy...

Il est essentiel que l'Union européenne participe pleinement aux décisions qui détermineront l'avenir de la gouvernance internationale d'Internet, sur la base des objectifs généraux fixés dans les récentes propositions de la Commission pour intensifier la coopération internationale sur les politiques mondiales des communications...
Certes, en 10 ans, beaucoup de chemin a été parcouru ... à rebours !

Avec le DoC qui continue de souffler le chaud et le froid, puisqu'après avoir laissé croire à une trêve ou qu'il lâchait du lest, d'aucuns ont pu penser que le débat sur la gouvernance d'Internet était relancé en juillet 2006 :
Contre toute attente, lors d'une réunion publique organisée mercredi à Washington, le Département US du commerce a indiqué que les États-Unis pourraient céder une partie de leur contrôle 'historique' d'Internet. Rien n'est fait. Il faudra attendre le 30 septembre 2006 pour savoir quels pouvoirs les Etats-Unis entendent "céder" et sous quelles conditions.
Or il est clair maintenant qu'il n'en sera rien, et ce ne sont pas les illusoires et velléitaires impulsions de Bruxelles qui pourront y changer quelque chose :
La Commission européenne est bien décidée à ne pas relâcher la pression sur la question de la gouvernance de l'internet. Elle prépare activement le premier Forum consacré au sujet, qui devrait avoir lieu à Athènes du 30 octobre au 2 novembre prochain.
Dommage que le partenariat public-privé U.S. DoC-ICANN aura déjà été dûment signé... un mois plus tôt, et pour cinq ans !

Mais vu les progrès accomplis de 1998 à 2006, tant du côté américain (le « faciliter la participation internationale... » du Gouvernement Clinton) que chez nous (« Il est essentiel que l'Union européenne participe pleinement aux décisions qui détermineront l'avenir de la gouvernance internationale d'Internet... »), un petit lustre ne sera pas de trop pour éclairer nos négociateurs, actuellement réduits à formuler des vœux pieux, comme en témoigne cette déclaration de la Commissaire européenne pour la société de l’information et les médias, Viviane Reding :
- Pour l'instant, l'ICANN est sous domination des États-Unis. Le Département américain du commerce a un droit de regard, qui devrait être renouvelé à la fin du mois. Nous avons beaucoup discuté avec eux : idéalement, on préférerait qu'il n'y ait pas de mainmise du tout, mais espérons au moins qu'elle soit la plus légère possible, que ce droit de regard ne comprenne plus de mesures d'intervention...
Au moins, la lettre NTIA mentionnée en début de billet remet les pendules à l'heure. [Début]

* * *

2. Rôle de l'ICANN

Inexistant. La lettre NTIA met brutalement fin à toute velléité de transition. Rappel des événements ayant conduit à instaurer l'ICANN :

Créée en 1979, Network Solutions est l'ancêtre des Registrars. Après le début d'Internet au public, le nommage fut assuré dès 1992 par l'InterNIC (Internet Network Information Center), émanation du Département du Commerce américain (DoC U.S.).

Le nommage consiste à associer un nom de domaine à une adresse IP, tous les noms étant gérés par le DNS, qui traduit les noms en adresses IP et vice-versa. Or les coûts d'enregistrement et de gestion de la base de données ne cessant d'augmenter, le gouvernement américain décida d'en "privatiser" la gestion et signa le 31/12/1992 un accord de coopération avec Network Solutions, par le biais de la National Science Foundation.
This agreement is entered into between the United States of America, hereinafter called the Government, represented by the National Science Foundation, hereinafter called the Foundation or NSF, and Network Solutions, Incorporated, hereinafter called the Awardee.
Aux termes du contrat, Network Solutions Inc. (NSI) (ou NetSol) perçut près de 6 millions $ pour l'administration de la base centrale avant d'instituer, en septembre 1995, le système payant du droit d'enregistrement que nous connaissons encore aujourd'hui. Le "droit" s'élevait à 50$ par domaine et par an pour les deux premières années. L'accord arrivait à expiration le 30/09/1998.

Le 5 juin 1998, un Livre vert du DoC U.S. prévoyait d'assurer une transition vers une nouvelle gestion du DNS en créant un organisme de droit privé ad hoc, sans but lucratif, qui serait opérationnel dès octobre :
4. Creation of the New Corporation and Management of the DNS. The Green Paper called for the creation of a new private, not-for-profit corporation(17) responsible for coordinating specific DNS functions for the benefit of the Internet as a whole. Under the Green Paper proposal, the U.S. Government(18) would gradually transfer these functions to the new corporation beginning as soon as possible, with the goal of having the new corporation carry out operational responsibility by October 1998.
Ce fut donc la création de l'ICANN, dont la collaboration avec le gouvernement fut sanctionnée par l'accord du 25 novembre 1998.

Entre-temps, le 1er octobre, le contrat entre National Science Foundation et NetSol repassait sous l'autorité du DoC et était prolongé jusqu'au 30 septembre 2000, ce qui faisait de la société l'acteur incontournable de l'enregistrement des noms de domaine dans les extensions .COM, .NET et .ORG., même si la transition prévoyait une ouverture de son quasi-monopole à la concurrence.

De nouveaux accords furent donc signés par NetSol en novembre 1999 avec le DoC et avec l'ICANN, et le 10, un accord tripartite (DoC - ICANN - NSI) prévoyait d'étendre la gestion des registres .COM, .NET et .ORG jusqu'au 9 novrembre 2003, ou jusqu'au 9 novrembre 2007 si la gestion des registres avait été scindée de la société avant le 9 mai 2001.

Or NetSol fut rachetée 21 milliards $ par VeriSign le 7 mars 2000 (voir également cet article), qui prit ainsi le contrôle du registre des TLD (y compris .EDU), pour ne conserver ensuite que les 2 plus lucratifs (.COM et .NET) et déléguer la gestion du .ORG à PIR (Public Interest Registry, émanation de l'ISOC).

Fin octobre 2003, lorsque VeriSign "brada" Network Solutions pour 100 millions de dollars, en fait elle ne revendit qu'une coquille vide en conservant ses trésors de guerre : les .COM et .NET. [Début]

* * *

3. Rôle de Verisign

Le 29 novembre 2006, le Département du Commerce des États-Unis approuvait définitivement l'accord conclu entre l'ICANN et Verisign pour mettre fin au procès qui les opposait :


Un accord accompagné d'un avenant de 95 pages (PDF), qui laisse à VeriSign la gestion du .COM au moins jusqu'en 2012, dont les implications nous échappent encore totalement, mais qui ne manque pas de sel, puisque l'administration US, via la NTIA, bypasse (qu'on m'excuse l'anglicisme) désormais totalement l'ICANN, ainsi reléguée au rang de marionnette, et encore... :
...Based on the consultations undertaken and advice received, the Department negotiated Amendment 30 to its Cooperative Agreement with VeriSign to address competition issues, including pricing and renewal, and Internet security and stability concerns.
(...)
Pricing
VeriSign must obtain prior written approval from the Department of Commerce before any amendments can be made to the pricing provisions of the agreement or execution of a renewal or substitution of a future .com Registry Agreement.
(...)
Renewal
VeriSign must obtain prior written approval from the Department of Commerce before execution of a renewal or substitution of a future .com Registry Agreement.
(...)
Internet Security and Stability
VeriSign must obtain prior written approval from the Department of Commerce before execution of a renewal or substitution of a future .com Registry Agreement.
(...)
En gros, à chaque fois, autant en matière de tarification que de renouvellement de l'accord afin de garantir la sécurité et la stabilité de l'Internet, « Verisign devra obtenir l'accord écrit préalable du Département du Commerce avant de... », ce qu'on appelle une politique d'ouverture bien comprise !

Mais qu'on se rassure, l'acharnement du DoC à vouloir contrôler exclusivement tout ce qui touche de près ou de loin à Verisign n'a pas grand chose à voir avec le Registre du fameux .COM, ou si peu, mais plutôt avec la gestion du système universel d'adressage d'Internet, le DNS, et, à terme, avec celle de son petit frère, destiné à grandir et grandir encore : l'ONS. On n'en parle pas encore, ou très peu, mais croyez-moi, ça ne vas pas tarder, au point qu'on pourrait bientôt davantage évoquer l'ONS que le DNS... Sans compter la relation stratégique étroite et les similitudes poussées entre les deux :
« Longtemps reconnue pour le rôle qu’elle a joué dans le fonctionnement de l’infrastructure critique sous-jacente au DNS et à internet, la société VeriSign développe son infrastructure et son expertise pour soutenir le serveur racine du service de nommage d’objet d’EPCglobal Network (ONS Object Numbering System). »
Source : Rapport du GTI sur les technologies de radio-identification (RFID).

Voici donc la relation entre l'Internet des objets, ou des choses, et Verisign, puisque c'est cette dernière qui gère depuis janvier 2004 l'ONS (Object Name System), le système des noms d’'objets qui sert à identifier les objets physiques sur le réseau grâce à l'’Electronic Product Code, ou code EPC.

Un peu en réponse à l'interrogation inscrite à l'encre rouge dans la présentation (PDF) de SIAIGE : « Le contrat avec Verisign concerne la racine onsepc.com, quid du .COM » ? La réponse est désormais claire, et même si, selon Philippe Gautier, « ce choix est indiscutable d'un point de vue technique, il est pourtant légitime de s'interroger sur la nature du lien qui lie cette société de droit privé à un organisme paritaire comme EPCglobal (héritage de GS1). »


[Début]

* * *

Donc derrière la réaffirmation claire et nette de la mainmise américaine sur le DNS, il est clair que le DoC et Verisign se réservent également la mainmise sur l'ONS. Avec ou sans l'ICANN, qui de toutes façons ne servira plus à rien. Si ce n'est, de temps en temps, à décider la création de quelques nouvelles extensions, histoire de renflouer ses caisses et d'amuser la galerie... [Début]


Partager sur Facebook

, , , , , , , , , , ,

jeudi 31 juillet 2008

Mediaset vs. YouTube, Berlusconi vs. Google


L'info a fait le tour du Web à la vitesse Internet, communiqué de presse officiel ici, version française .
Voyons maintenant quelques approfondissements venant directement d'Italie, puisque c'est de là que ça part et que la plainte a été déposée devant le Tribunal civil de Rome (auprès duquel je suis "expert assermenté", soit dit en passant).
Et puisqu'on parle d'experts, l'expertise pour le compte de Mediaset a été effectuée par Matteo G.P. Flora, qui décrit ainsi le mandat qui lui a été confié :
- deux mois de travail
- un crawling qui a généré 185 Go de trafic
- les fameuses 4 643 preuves (les extraits vidéos appartenant à Médiaset)
- 9 DVD remplis de preuves à charge
- autres recherches et recoupages afférents
- un rapport d'expertise de 5 260 pages et pièces jointes (dont 243 pages d'analyses) (cf. la quinzaine de volumes du rapport ci-dessous)


Je serais curieux de lire la plainte, mais en furetant sur le Web italien à la recherche d'infos, je n'ai pas encore compris la corrélation entre les 325 heures de vidéos reprises sur YouTube et le calcul de la perte pour le groupe, "évaluée" à 315 672 jours (865 siècles !!!) de visionnage de la part des téléspectateurs.
Sans compter le manque à gagner des recettes publicitaires...
Ceci dit, le dossier est confié aux avocats Gaetano Morazzoni, Vincenzo Sangalli, Alessandro La Rosa et Stefano Previti, ces deux derniers du cabinet légal de Cesare Previti (dont Me Stefano est le fils), ami "intime" de Silvio Berlusconi (voir par exemple le scandale Mondadori), qui reprend du service pour Mediaset depuis un certain temps déjà, notamment contre Marco Travaglio, attaqué de tous les côtés...
D'ailleurs, pour en revenir à YouTube, si vous comprenez l'italien, je vous suggère vivement de regarder les vidéos de Travaglio, c'est édifiant...



Au moins, quand on lit Gomorra on sait à quoi s'attendre. Mais quand on lit les ouvrages de Travaglio sur les dessous (de table) de la politique italienne, on se dit vraiment qu'en Italie les politiques sont encore plus ripoux que la mafia... Voir sa présentation de Mani Sporche (par opposition à Mani Pulite, Mains sales vs. Mains propres...) :



Naturellement, en voyant que tout ce matériel est disponible et librement accessible en quantité sur YouTube (voir aussi le blog de Beppe Grillo), on comprend pourquoi Berlusconi en a après Google (il vient d'ailleurs de gagner dans une affaire proche opposant Telecinco à YouTube, et c'est sûrement pas sur Rivideo qu'on va retrouver les mêmes clips...). Et on comprend aussi pourquoi il attaque en faisant appel à Previti, après tout, ça reste une affaire de familles !


Partager sur Facebook
, , , ,

mardi 29 juillet 2008

Knol : Google juge et partie...

Knol : Google juge et partie...

Knol est généralement présenté comme une encyclopédie alternative à Wikipédia, avec trois différences essentielles : un auteur unique et non anonyme pour chaque article, plus la possibilité d'être rétribué via les AdSense.

En revanche, comme sur Wikipédia, les liens sortants sont en nofollow. Autres spécificités ici et .

Donc, Knol : Google juge et partie, pourquoi ?

Nous avons vu récemment plusieurs exemples des chiffres astronomiques de Google, qui affiche 4,3 milliards de pages vues par jour sur l'ensemble de "son" réseau de contenu, comprenant « aussi bien les milliards de pages de résultats générées par le moteur de recherche que les centaines de milliers de "partenaires" - sites et pages Web, blogs, forums, réseaux sociaux, etc. -, sur lesquels s'affichent les pubs AdSense/AdWords » :
Il n'existe pas plus grand réseau de publicité contextuelle au monde.
Or le point commun de ce réseau, jusqu'à présent, c'était que tout le contenu servant d'inventaire était créé par des tiers, hors de Google.

Une donnée fondamentale qui change avec Knol !

Avec Knol, Google crée son "propre contenu" - quand bien même rédigé par des nègres comme le soussigné -, destiné à être indexé par ... Google !

Ce que Wired qualifie de conflit d'intérêt. Tout simplement parce qu'il est facile, voire "naturel" pour Google, de favoriser le contenu maison, en le boostant dans les premières pages de recherche.

Le service est encore trop jeune pour en juger, mais des premières mesures semblent indiquer qu'environ un tiers de l'échantillon se retrouve dans la première page de résultats de Google, une performance impossible à réaliser pour tout autre site qui ne serait pas ... Google, justement !

Donc, la question est : Google devient-il un fournisseur de contenus ? Pour Jason Calacanis, la réponse est évidente : OUI !

Et au-delà de son intérêt dans Mahalo, dont le modèle économique est touché de plein fouet par Knol, son article soulève de nombreux points intéressants, sur lesquels il vaut la peine de s'interroger.

1. Il compare l'écosystème de recherches de Google au système d'exploitation du Web, de facto, dont tous les webmasters doivent tenir compte et dans le cadre duquel tous les sites sont considérés comme des applications !

2. Il rappelle une interview donnée l'année dernière par David Eun, responsable Google pour les partenariats, dans laquelle il déclarait :
La plus grosse erreur d'appréciation que peuvent faire les producteurs de contenus, c'est de craindre et de croire que Google aspire à devenir un opérateur média qui produirait lui-même ses contenus en compétition avec les leurs. C'est une erreur d'appréciation majeure. Nous ne produisons pas notre propre contenu, nous nous considérons plutôt comme une plateforme sur laquelle nos partenaires placent eux-mêmes les contenus qu'ils produisent.

The biggest misconception is that they (content companies) fear Google has aspirations to become a media company, meaning that we would produce and own content that would compete against theirs. That's a major misconception. We don't produce our own content. In fact, we see ourselves as a platform for our partners that do.
3. Entre les lignes, il dit que le problème n'est plus celui de la "propriété" du contenu mais de sa diffusion et de la capitalisation de l'inventaire ainsi créé, raison pour laquelle même si Google imagine qu'il n'est pas fournisseur de contenus puisque ceux-ci ne lui appartiennent pas, c'est totalement faux, car "ça ne marche pas comme ça" (Google believes because they don't own the content that they are not in the content business. Nice try, but no, that's not how it works).

4. Google étant une la source de trafic majeure de nombreux sites (50% du trafic de Digg, 85% pour About.com, 70% pour Wikipédia, etc.), et donc le passage quasi-obligé entre vous et ces sites, il ne gagne de l'argent qu'au deuxième clic, une fois que l'internaute arrive sur ces sites et clique sur les pubs. Des sites qui dépendent du trafic de Google et vont donc se retrouver en concurrence avec Google dès lors que celui-ci mêlera ses propres résultats aux autres dès la première page.

5. Calacanis observe en outre que la création de contenus ne s'arrête pas aux textes mais implique également la vidéo, puisque Google a récemment signé un accord avec un réalisateur connu pour produire des clips vidéo destinés à être diffusés en exclusivité sur YouTube. Une donnée à mettre en rapport avec la loi de Pareto appliquée à la vidéo sur Internet, où 96 % des revenus sont générés par les 58% de vidéos streamées "professionnelles", contre seulement 4% des recettes pour les autres.

En conclusion, comme il le constate justement, tout ça n'est pas un problème jusqu'à ce que ça devienne "votre" problème (You get the idea, it's not an issue until it's your issue).

Alors, Knol : Google juge et partie, à vous la réponse...


Partager sur Facebook


, , , , , , , ,

lundi 28 juillet 2008

Microsoft - Yahoo! : Ballmer and blah-de-blah-de-blah

Ainsi traduisible en français : Ballmer et blabla et blabla ou de-blah-de-blah-déblatérer...

* * *

HIER

Extrait : ... Microsoft était déjà sur Internet à une époque où Google était encore dans les limbes. En 1995, Microsoft proclamait fièrement en page de couverture d'un des nombreux livres consacrés à Windows :


Find out how to get the most out of Windows 95's exciting new Internet tools (du genre : découvrez comment tirer le meilleur parti des nouveaux fabuleux outils Internet que Windows 95 met à votre disposition). Y a de quoi rêver...

Treize ans ont passé, mais ça vaut son pesant d'or avec le recul ! Et je vous passe le détail de la centaine de pages dédiées à Internet, sur 8 chapitres S.V.P., dont le premier s'intitule fort prophétiquement : « The Tough Truth about Internet Searches » (La dure vérité sur les recherches Internet). Ça ne s'invente pas !

- - -

En parallèle, Yahoo! a perdu TOUTES les opportunités sur la même période, dans un acharnement à louper le train - non pas 1 fois mais 10, 20 ou 100 fois - qui n'a d'équivalent que l'entêtement du management à prendre TOUTES les mauvaises décisions au fil des ans ! D'où le déclin durable de l'action Yahoo!

* * *

AUJOURD'HUI

Entre-temps, qu'a fait Microsoft en ligne depuis ? Rien ! Ou plutôt si : un désastre, aboutissant à...

- 617 millions de pertes pour les activités en ligne en 2006-2007, le double en 2007-2008 ! Une position financièrement intenable qui ferait mettre la clé sous la porte à n'importe quelle société, sauf Microsoft, grâce aux bénéfices gigantesques dégagés dans ses autres secteurs d'activité.

- des déclarations fracassantes autour d'un plan "10, 20, 30, 40" aussi hypothétique que fantaisiste :
  1. 10% des pages vues, contre 6% actuellement ;
  2. 20% du temps passé par l'internaute sur les sites de Microsoft, contre 17% actuellement ;
  3. 30% des parts de marché dans la recherche, contre moins de 10% actuellement ;
  4. 40% des parts de marché dans la publicité en ligne, contre 6% actuellement.
Laissons tomber les points 1 et 2, mais quelques précisions sur les 3 et 4 :

3. Actuellement moins de 10% des parts de marché dans la recherche : en réalité c'est entre 6 et 7%, contre +12% en 2006, voire bien davantage selon d'autres analyses ! Donc avant de vouloir gagner trois fois plus, il faudrait peut-être commencer par ne pas perdre deux fois moins...

4. Pour progresser de 6% à 40% sur un marché monopolisé par Google, la seule solution passe(ait) obligatoirement par Yahoo!

- une gestion catastrophique de l'acquisition (manquée) de Yahoo!, probablement bien davantage pour des conflits de personnalité que pour des questions d'argent.

Quant à déclarer à qui mieux-mieux que l'acquisition de Yahoo! serait tactique et non stratégique (cf. présentation - 3,3 Mo)


elle ne fait que refléter l'embarras de Ballmer, qui préfère jouer sur les mots plutôt que d'avouer n'avoir pas la moindre idée de la manière dont Microsoft pourra raccrocher Google demain, qui s'éloigne et creuse de plus en plus l'écart au fil des jours.
Petite parenthèse sur l'aspect "tactique" vs. "stratégie" : si Ballmer était prêt à dépenser presque 56 milliards de $ en janvier 2007 pour l'acquisition de Yahoo! et tout juste 10 milliards de moins un an plus tard au nom d'une simple "tactique", on se demande jusqu'où ils iront chez M$ lorsqu'ils déploieront leur véritable "stratégie". Mais là encore, et toujours, on connaît celle de Google, clairement établie, tandis que Microsoft cherche encore une véritable stratégie tactique pour sa présence en ligne. Et ce depuis déjà plus de 13 ans, exactement comme Yahoo!

Avec l'acquisition manquée en point d'orgue. Car j'aimerais qu'on m'explique au nom de quoi Microsoft a retiré son offre au dernier moment, alors que pour un dollar de plus l'acquisition était pratiquement finalisée, et tout ça après un an et demi d'acharnement ? Et si Ballmer croit vraiment qu'il peut se passer de Yahoo! pour arriver à ses fins (voir plus haut le fameux plan "10, 20, 30, 40"), alors c'est pire que ce que je pensais...

Comment ? Vous dites ? C'était une simple tactique ! Ah ! OK. Alors comme ça tout est clair :-)
- aucune identité bien définie en ligne : Microsoft, MSN, Live.com, Internet Explorer ? Qui fait la différence ? Quelle est la différence ? Sur le Web, Google c'est Google, Yahoo! c'est Yahoo!, Microsoft c'est un magma de produits-services sans marque unique, et donc, sans promesse unique, sans mission clairement identifiable : Google s'est donné une mission, Yahoo! idem, Facebook et d'autres encore, mais Microsoft :
“(O)ur mission and values are to help people and businesses throughout the world realize their full potential.”
Aider les personnes physiques et morales partout dans le monde à réaliser leur plein potentiel”, ça veut dire quoi ?

Qui trop embrasse mal étreint...

* * *

DEMAIN

Après l'annonce du départ de Kevin Johnson, Steve Ballmer décide une réorganisation visant à séparer Windows/Windows Live de ses activités en ligne. Déjà, ça commence bien, Windows Live n'aurait donc rien à voir avec Live.com, c'est clair comme de l'eau de roche !

Très exactement le contraire de la "synergie" de 2005, lorsque Microsoft avait fusionné Windows et les services en ligne, pour mieux répondre aux exigences des utilisateurs, aux dires de Ballmer (By bringing together the software experience and the service experience, we will better address the changing needs of our customers' digital lifestyles and the new world of work.)

Et il déclare dans la foulée que la révolution Internet est à venir !

Fort bien. Mais si le mieux que Redmond peut faire est du genre BrowseRank, Live Search Cash Back ou mettre Live Search sur Facebook, alors il est probable - et même certain - que cette révolution se fera sans Microsoft. Et quoi qu'il en soit, Steve Ballmer est-il le meilleur atout de la société pour relever les défis de demain ? J'en doute fortement.

Lui, c'est hier et aujourd'hui plutôt que demain (quant à savoir combien de temps durera aujourd'hui...) !

Pendant qu'au fil des jours, Google s'éloigne et creuse de plus en plus l'écart...


Partager sur Facebook

, , , , , ,

dimanche 27 juillet 2008

ECHOS : le projet NanoDataCenters de l'Union européenne

ECHOS : le projet NanoDataCenters de l'Union européenne

Dans son septième programme-cadre (7e PC), l'Union européenne a lancé le 1er mai dernier le Projet NanoDataCenters :
Ce projet propose une solution radicale au service des données et à leur hébergement dans l'Internet du futur. L'architecture actuelle des données est centrée réseau, avec un contenu stocké dans des centres de données directement reliés aux dorsales Internet. Cette approche a plusieurs inconvénients, parmi lesquels les aspects plus critiques pour les centres de données sont la complexité de leur déploiement, leur consommation d'énergie et leur manque d'évolutivité. En rupture totale avec l'approche traditionnelle, le projet ECHOS choisit d'innover avec la mise en place de ce que nous appellerons des nano-centres de données, qui seront déployés dans des dispositifs à la périphérie du réseau (ex. home gateways, set-top-boxes, etc.), accessibles via une nouvelle infrastructure de communication P2P.

Une évolution disruptive pour résoudre la plupart des inconvénients des solutions commerciales actuelles, afin de permettre le déploiement d'applications interactives de prochaine génération. Toutefois, les défis sont nombreux, vu que les données devront pouvoir être accessibles et assemblées à la demande de façon dynamique, en temps réel. Le projet ECHOS assurera la conception et le développement de l'architecture communicationnelle des nano-centres de données, conjuguée à des mécanismes incitatifs et de sécurisation. Le but étant de démontrer qu'ECHOS est une alternative scalable et bon marché aux modèles actuels de service et d'hébergement des données. L'architecture ECHOS sera intégralement mise en œuvre à travers la spécification et l'implémentation des box ECHOS. La gestion et le partitionnement efficaces de ces ressources (box ECHOS) seront assurés par des technologies de virtualisation.

Deux types d'applications interactives - jeux multijoueurs et vidéo à la demande - seront conçues comme preuves de concept. Un banc d'essai à grande échelle sera déployé pour évaluer les avantages et les performances d'ECHOS, dont l'architecture sera soumise aux organismes de normalisation et aux groupes de discussion compétents sur la conception de l'Internet du futur. Ce projet, en phase avec l'agenda stratégique de recherche (SRA) de l'initiative NEM (Network and Electronic Media Platform), devrait aboutir à la commercialisation de box ECHOS. Il en résultera un avantage concurrentiel pour l'industrie et les PME.
Le projet, qui devrait coûter 5 millions d'euros (financé à hauteur de 3 millions d'euros par l'UE, et le reste par les partenaires), est emmené par Thomson et durera 3 ans jusqu'à fin avril 2011.

Les enjeux sont gigantesques, vu les défis posés par les centres de données et les réseaux P2P actuels.

Ceci dit, si l'UE réussit à gagner son pari, cela pourrait rééquilibrer un peu la suprématie proche de l'hégémonie des américains dans ce domaine, avec Google en tête de liste. Ne préconisaient-ils pas chez Verisign de passer au P2P, si l'on veut faire face aux fleuves de données prêts à déferler d'ici peu, notamment avec le déploiement de l'Internet des choses ?

Selon Verisign, rien que
les sites Web en .COM reçoivent actuellement plus de 35 milliards de requêtes journalières, un niveau qui devrait passer à 100 milliards de requêtes/jour dès 2010, avec une progression qui double tous les 18 mois depuis 2000.
Ça en fait du trafic en perspective ! Via Andrew Hendry et Janko Roettgers.


Partager sur Facebook

P.S. Lien connexe : The Future of the Internet (PDF, 2 Mo) (site dédié)

, , , , , ,