Affichage des articles dont le libellé est noms de domaine. Afficher tous les articles
Affichage des articles dont le libellé est noms de domaine. Afficher tous les articles

jeudi 24 mars 2011

Demand Media Infographic

Après mon premier billet sur l'introduction en bourse de Demand Media, voici une infographie intéressante :


[Source: OnlineMBA.com]


Partager sur Facebook

, , , , , , , , ,

lundi 9 août 2010

Demand Media : introduction en bourse !


Enfin du nouveau dans le petit monde d'Internet : créée en 2006, la société Demand Media, qui totalise déjà 52 millions de dollars de pertes depuis sa création, vient de déposer son dossier d'introduction en bourse, IPO pour les intimes...

Je trouve ça très intéressant, d'abord parce que le document est bourré d'infos qu'une société communique rarement, et ensuite, indépendamment des doutes que je peux nourrir sur la question, parce que sa "mission" est pour le moins originale :
Our mission is to fulfill the world's demand for commercially valuable content.
Satisfaire la demande mondiale en contenu commercial de valeur. Autrement dit monétisable. Et pour ça, la seule professionnalisation du contenu ne suffit plus, ce qu'il faut c'est l'industrialisation de la création production de contenu sur Internet !

Ainsi, au deuxième trimestre 2010, le "content studio" de Demand Media a fédéré plus de 10 000 "créateurs de contenu freelances", qui ont généré en moyenne plus de 5 700 articles de texte et de clips vidéos par jour (Demand Media est le premier contributeur de vidéos sur YouTube, avec plus de 1,5 milliard de visualisations au 30 juin 2010), ce qui fait probablement de la société « l'un des producteurs de contenu professionnel en ligne les plus prolifiques au monde ».

Industrialisation, vous disais-je, une production à la chaîne, alimentée grâce à la seconde activité stratégique de Demand Media : l'enregistrement des noms de domaine !

Mais quel est le rapport entre les noms de domaine et la production de contenu, me direz-vous ?

Et bien, d'une part, la société gère en direct environ 500 000 parkings (qu'elle nomme d'un euphémisme "undeveloped websites"), mais surtout elle exploite l'inépuisable gisement de données captées grâce à enom : acheté en 2006, troisième registreur mondial à l'époque, fortement impliqué dans le domain tasting, il a gagné une place quelques mois plus tard en rachetant BulkRegister.

C'est donc aujourd'hui le deuxième registreur au monde avec près de dix millions de domaines enregistrés (le premier, GoDaddy, est presque à 35 millions de noms !).

Il n'empêche que les internautes qui vont sur le réseau enom pour y enregistrer leurs domaines saisissent en moyenne plus de 3 millions de requêtes / jour, et que Demand Media traite ces données pour améliorer ses algorithmes de création de contenu :
These queries and look-ups provide insight into what consumers may be seeking online and represent a proprietary and valuable source of relevant information for our platform's title generation algorithms and the algorithms we use to acquire undeveloped websites for our portfolio.
Donc, grâce à ces données, d'une part elle récupère à la volée les noms expirés qu'elle juge intéressants en fonction de ses propres critères (parfois même aux dépens des propriétaires légitimes, j'y reviendrai...), et de l'autre elle affine ses propres algorithmes de génération de titres.

Génération de titres ! C'est là où l'industrialisation prend tout son sens : une fois passées à la moulinette de ses algorithmes toutes les données dont dispose la société (à la fois propriétaires ou de tierces parties), le résultat est la production de titres optimisés pour le référencement, soigneusement pesés en fonction des sujets à la mode :
Utilizing a series of proprietary technologies, algorithms and processes, we analyze search query and user behavior data to identify commercially valuable topics that are in-demand. This includes analysis of publicly available third-party data, such as keyword prices on large advertising networks and the frequency of specific search queries, as well as analysis of proprietary data from our Content & Media and Registrar service offerings, such as the types of domain names being purchased and the types of search queries driving consumers to our text articles and videos.
Après quoi ces titres sont soumis à l'armée des 10 000 "créateurs de contenu freelances", qui brodent dessus pour en sortir des articles de texte et des clips vidéos :
The process to select the subject matter of our content, or our title selection process, combines automated algorithms with third-party and proprietary data along with several levels of editorial input to determine what content consumers are seeking, if it is likely to be valuable to advertisers and whether it can be cost effectively produced. To produce original content for these titles at scale, we engage our robust community of highly-qualified freelance content creators. As of June 30, 2010, our content studio had over 10,000 freelance content creators, a significant number of which have prior experience in newspapers, magazines or broadcast television. Our content creation process is scaled through a variety of online management tools and overseen by an in-house editorial team, resulting in high-quality, commercially valuable content. Our technology and innovative processes allow us to produce articles and videos in a cost effective manner while ensuring high quality output.
Je vous conseille de lire l'excellent compte-rendu de Danny Sullivan, qui détaille la partie "risques" développée par Demand Media dans le dossier d'introduction en bourse, notamment vis-à-vis de Google : puisque la société tire actuellement plus d'un quart de ses revenus des AdSense et que 60% du trafic de eHow est généré par le moteur, une pénalisation ou un changement soudain des règles du jeu par Google pourraient avoir des conséquences catastrophiques.

Danny conclut en s'interrogeant sur la qualité du contenu et sur la récupération plutôt "limite" des noms de domaines expirés, car même si Google n'a jamais dédaigné le business du parking, en faisant parfois preuve d'incohérences, certaines activités de Demand Media pourraient violer les règles d'utilisation de ses services.

D'autres sont moins gentils que Danny, et n'hésitent pas à critiquer ouvertement cette approche. Selon Aaron Wall :
The very technique that eHow uses today is *exactly* what caused Matt to create Google's anti-spam team!
En conclusion, il reste à voir comment les investisseurs potentiels accueilleront cette opération, mais quoi qu'il en soit je vous conseille de jeter un coup d'œil à ce document, il est vraiment plein d'indications intéressantes !


Partager sur Facebook

P.S. Si vous voulez une synthèse des chiffres, c'est ici...

, , , , , , , , ,

mercredi 4 août 2010

Baromètre Verisign et IDN


Je suis tellement plongé dans l'Italie que je ne vois plus rien de ce qui se passe autour, mais revenons un instant à nos premières amours, les noms de domaine. Et les IDN, dont je parlais sur ce blog dès janvier 2006...

En tentant une comparaison sur deux ans, du deuxième trimestre 2008 au deuxième trimestre 2010.

J'arrondis les chiffres, bien sûr, mais sur l'ensemble des domaines enregistrés que compte Verisign (84 millions fin juin 2008 vs. 99,3 millions fin juin 2010), la proportion est d'environ 87% de .COM et 13% de .NET, soit 76 millions de .COM en fin de premier semestre 2008, contre 86 millions sur la période équivalente de 2010.

Autrement dit, nous avons un solde positif de 10 millions de nouveaux .COM enregistrés sur deux ans, soit 5 millions par an, presque 14 000 par jour !

Une donnée qui semble démentir la supposée "stagnation" des .COM au motif qu'il y en aurait de moins en moins de disponibles, tout au moins les domaines jugés intéressants. À savoir les noms génériques signifiants, comme les principaux substantifs, adjectifs et verbes d'une langue.

En fait c'est pas très difficile à vérifier, il suffit de prendre le dictionnaire complet d'une langue (on les trouve tous en .txt sur Internet, les hackers aiment beaucoup ça pour forcer les mots de passe...), on le croise avec la base des .COM à un instant donné, et il en résulte quels sont les mots pris et ceux qui restent disponibles à l'enregistrement.

Mais il est clair que plus un mot clé vraiment intéressant n'est aujourd'hui disponible, d'où la nécessité d'allonger la sauce en intégrant deux ou trois mots clés dans le nom de domaine.

Ceci dit, tous ces domaines ne correspondent pas vraiment à des sites, puisque sur l'ensemble, un gros 20% sont probablement des parkings (une seule page Web), un gros 10% sont soit des redirections, soit des noms inactifs, juste déposés dans l’attente de jours meilleurs, et environ 65% sont des sites Web actifs, multipages (.COM et .NET confondus) : ils étaient 56,3 millions en juin 2008, contre 63,6 millions en juin 2010, soit un différentiel de +7,3 millions de sites Web actifs en 2 ans.


Autant dire qu'il se crée en .COM et en .NET 10 000 nouveaux sites/jour, soit environ 300 000 par mois !

Or si l’on compare ce chiffre à la moyenne de 2,7 millions de noms mensuellement enregistrés en .COM et en .NET sur le premier trimestre 2010, cela reviendrait à dire que seuls 11% de ces enregistrements se transforment en site !

Et en arrondissant à 1 million le nombre de sites créés sur le trimestre, vs. 8,1 millions de noms enregistés, cela signifie que 7 millions de noms ne correspondent à aucun site : un rapport de 1 à 7 !

Où vont finir ces 7 millions de noms de domaine ? Il est probable qu'une grande partie servent au parking, mais depuis la fin du domain tasting un tel chiffre ne s'explique pas, surtout si on conjugue ce facteur avec le déclin inarrêtable du modèle économique du parking et des revenus associés qui s'essoufflent.

Un constat partagé par Mark McLaughlin, Président & CEO de VeriSign, selon qui tout ça est mort et enterré : domain parking is a dead thing”, “PPC is a dead thing...

Ceci dit je n'ai pas la réponse à ma question : - Où vont finir ces 7 millions de noms de domaine ?

À part dans l'escarcelle de Verisign, qui a perçu jusqu'au 30 juin 6,86$ par .COM et 4,23$ par .NET (des tarifs respectivement passés à 7,34$ et 4,65$ à partir du 1er juillet dernier). Mark McLaughlin a donc de quoi être satisfait, même s'il voit déjà d'autres opportunités de développement avec les nouvelles extensions et avec les IDN :
The second thing is we have growth opportunities right around that infrastructure related to like the new gTLDs I just discussed, both the new gTLDs themselves plus the internationalized version of the TLDs we run today. And if you take into account everything I’ve been saying about international growing very nicely, we think that there’s some growth opportunities around the non-English versions of the TLDs we run.
De quoi s'agit-il exactement ? Dans un nom de domaine, à droite du "." vous avez les extensions de premier niveau (COM, NET, ORG, etc.), et à gauche du point celles de deuxième niveau (le domaine proprement dit).

Pour l'instant les IDN ne pouvaient être enregistrés que sur les deuxièmes niveaux, mais depuis que l'ICANN a décidé d'ouvrir aussi les premiers niveaux à l'internationalisation, quatre premières extensions sont déjà disponibles et opérationnelles : امارات. السعودية. .рф مصر.

• Émirats Arabes Unis : امارات.

• Arabie Saoudite : السعودية.

• Fédération de Russie : .рф

• Égypte : مصر.

Or le pari de Verisign, c'est que les internautes qui ont déjà enregistré des IDN en .COM et en .NET pourraient devenir prioritaires pour enregistrer ces mêmes noms dans les extensions correspondantes.

Exemple : prenez un IDN russe en .COM, Verisign pourrait passer directement un accord avec le Registry de la Fédération de Russie pour réserver ce même nom en .рф et le proposer en priorité au détenteur du .COM équivalent !

Selon Chuck Gomes, un des Vice-Présidents de VeriSign, même si rien n'est encore définitivement fixé et qu'il est trop tôt pour quantifier ces noms, le Registry pourrait tenter de profiter de son droit de préemption sur le renouvellement d'un nom pour réserver un nombre significatif de noms intéressants :
“We can’t predict what ICANN will do in terms of the application process,” but “I can say that the business unit is considering applying for ‘several’ IDN versions of .com in some of the scripts that are available.”
Pour autant j'ai quelques doutes sur cette "opportunité de croissance" pour Verisign, d'autant plus que le nombre d'IDN en .COM est plutôt exigu, avec un taux d'enregistrement qui stagne autour de 0,8/0,9% du total :
  • 709 126 IDN en juin 2008 (mesure effectuée le 19/06/2008), soit en arrondissant : 710000 sur 76 millions de .COM = 0,93421 %
  • 782 421 IDN le 02/08/2010, soit uniquement 0,79165 % des .COM enregistrés
Soit un différentiel de 73 295 noms, c'est-à-dire environ 10% de progression en 2 ans !

Je n'ai pas encore pu calculer la proportion d'IDN français enregistrés par rapport au total, car dans la base des .COM ils sont encodés en Punycode et l'outil de Verisign ne les convertit que un par un... Il me faudrait donc un outil de conversion automatique pour convertir les actuels 780 mille IDN et des poussières, puis les matcher avec le dictionnaire français. Si vous en connaissez un, faites-moi signe...



Partager sur Facebook

, , , ,

samedi 21 février 2009

ICANN : nouvelles extensions et JPA


Cette semaine, l'ICANN a publié un PDF de 150 pages où sont analysées les réactions publiques à la première version du guide des candidatures aux nouvelles extensions.

La nouvelle mouture (changements en rouge) suscite déjà de nombreuses réactions, qui s'ajoutent aux précédentes objections, d'autant plus que selon plusieurs observateurs, les principales problématiques soulevées dans les précédents commentaires ne trouvent pas de réponses satisfaisantes dans ce nouveau document. Pour lequel une nouvelle session de commentaires est ouverte, jusqu'au 13 avril prochain.

Les principales questions en suspens portent notamment sur les coûts des candidatures, les coûts d'enregistrement (avec les risques d'un tarif à la carte...), l'impact des nouvelles extensions sur le marché et les conséquences techniques pour le DNS vu la pénurie d'adresses qui se profile. L'ICANN a donc commissionné des études sur ces points, auprès de consultants externes, dont les résultats devraient être connus et débattus à partir d'avril prochain.

Une autre problématique concerne les IDN (et les considérations légales connexes), ou domaines multilingues, sur lesquels Verisign est également très actif, j'aurai l'occasion d'y revenir. Verisign qui contribuera aux finances de l'ICANN en lui versant 18 millions $ en 2010 (contre "seulement" 12 millions $ en 2009), soit dit en passant...

Mais pour en revenir aux critiques, l'un des plus virulents est certainement George Kirikos sur CircleID :
Il est évident que la supervision du gouvernement (NTIA/DOJ) doit être plus active, et notamment pour ordonner à l'ICANN de cesser totalement son programme "Nouvelles extensions" !

The need for more active supervision by the NTIA/DOJ is evident, and in particular they should order the cessation of the New gTLD program in its entirety.
Il observe surtout que l'ICANN n'a tenu aucun compte des fortes objections soulevées par la NTIA autant que par le marché.

Tout le monde ne voit pas les choses de cette manière. En décembre dernier, Antony Van Couvering déclarait à propos de ce dossier :
Il y a de bonnes raisons pour que l'ICANN ne change pas de cap.

There are good reasons ICANN won't change direction.
Michael Palage reconnaît également les mérites de l'ICANN.

Toutefois, ce que je retiens de cette nouvelle version, c'est le retard pris sur le calendrier initial, puisque le nouvel échéancier ne prévoit plus la mise en œuvre des nouvelles extensions avant fin septembre 2009, mais selon toute probabilité avant la fin de l'année 2009 (j'en doute...).

Bon, bien que certains s'en soient émus, un délai supplémentaire de trois mois ne change pas grand chose, me direz-vous. Sauf un petit détail : le 30 septembre 2009 expire le JPA, terme au-delà duquel nous en saurons plus sur l'indépendance et l'avenir de l'ICANN, pour qui la transition s'annonce d'ores et déjà délicate...

Le JPA, Accord de projet conjoint, ou Accord de projet commun, est l'aboutissement d'une longue série de protocoles d'accords entre l'ICANN et le Gouvernement des États-Unis, via différentes institutions. Avec dès le début l'intention annoncée d'assurer la transition de la gestion du DNS (système des noms de domaine) vers le secteur privé. Donc, maintenant, que fera la nouvelle Administration Obama ? That is the question...

En décembre, un atelier réunissant près d'une cinquantaine d'experts s'est terminé en proposant un sondage sur l'alternative suivante :
  1. Est-ce que l'échéance du JPA au 30 septembre 2009 peut représenter un premier pas vers une internationalisation de l'ICANN ?
  2. Est-ce qu'il vaut mieux attendre avant que les instances compétentes ne mettent un terme au JPA ?
Environ 35 voix se sont portées sur la première proposition, contre 10 pour la seconde...

Autant de problèmes sur la table pour la prochaine réunion de l'ICANN, qui se tiendra à Mexico du 1 au 6 mars prochain. Si vous avez des remarques ou des requêtes, vous pouvez les déposez dans la boîte aux questions prévue à cet effet.



Partager sur Facebook

, , , , , ,

samedi 10 janvier 2009

ICANN : quand les nouvelles extensions génériques de premier niveau (gTLDs) verront-elles le jour ?



Deuxième partie qui fait suite au précédent billet Gouvernement des États-Unis contre l'ICANN.

Introduction
Registres ouverts vs. Registres fermés…
Conclusion

* * *

Introduction

L'ICANN vient de publier une mise à jour sur les commentaires reçus, en faisant ressortir quatre points soulevés par les commentateurs :
  1. les problèmes de protection des marques et l'impact des nouvelles extensions pour leurs propriétaires
  2. les problèmes économiques liés aux coûts prévisibles
  3. les problèmes concernant les nouveaux accords de registre (voir le commentaire de la NTIA)
  4. les problèmes plus généraux relatifs à l'expansion de l'espace des extensions génériques, susceptibles d'impacter le marché global ou des industries en particulier, ainsi que la stabilité du DNS (Domain Name System).
M. Levins en conclut :
Il ne fait aucun doute que nous devons aborder ces problèmes légitimes et d'autres avant d'ouvrir le processus de dépôt des dossiers.
J'aime bien le "et d'autres"...

Car même si certains observent justement que le petit jeu NTIA - ICANN n'a que trop duré, tant qu'on ne sait pas comment la nouvelle administration Obama affrontera le problème, difficile de prévoir quelle tournure prendra l'éventuelle prorogation/renégociation de l’Accord conjoint de projet (Joint Project Agreement) signé avec le DoC, qui arrive à échéance en septembre 2009...

Ceci dit, l'ICANN promet une réponse détaillée sur (tous) ces points début février. Nous verrons.

En attendant, le problème qui nous intéresse plus immédiatement est de savoir si de nouvelles extensions verront le jour, et si oui, quand. Le "si" ne faisant pas de doute, reste à savoir le "quand", impossible à prévoir, mais sûrement pas dans les délais initialement prévus par l'ICANN...

Donc lorsque la municipalité de Paris négocie pour commercialiser son .paris en 2010, cela me semble plutôt prématuré, hors le fait que les extensions géographiques contestent déjà les prix trop élevés prévus par l'ICANN. Voir ici quelques commentaires sur la rentabilisation du .paris...

Pour autant, les problématiques sont différentes selon que ces nouvelles extensions seront imputables à des registres ouverts ou fermés. [Début]

* * *

Registres ouverts vs. Registres fermés…

L'opposition traditionnelle entre registres ouverts et fermés pouvait se résumer comme suit : les registres ouverts acceptaient l'enregistrement de tous les déposants, les registres fermés posaient des conditions à l'obtention d'un domaine, comme l'AFNIC, par exemple. C'est ainsi que même en étant français, je n'ai jamais pu enregistrer un .fr car ne pouvant justifier d'un domicile en France ! Comme si le degré d'ouverture d'un registre allait de pair avec son niveau d'ouverture d'esprit...

Une opposition désormais dépassée, et plus encore dans la perspective des nouvelles extensions. Où la distinction que je fais entre registres ouverts et fermés serait la suivante :
  1. Les registres ouverts seraient les extensions génériques (.sport, .hotel, .kids, etc.), y compris communautaires et donc géographiques, qui ont vocation à proposer une multitude de noms de domaine à l'enregistrement.
  2. Les registres fermés seraient essentiellement les extensions d'entreprises (corporate ou Brand TLDs), de communautés industrielles (.car, .pharma, .sport, .bank, .hotel, etc.) ou d'organisations (pourquoi pas un .un pour l'ONU ?), qui auraient vocation à exploiter ces domaines uniquement pour promouvoir leurs services et/ou filiales et/ou membres et/ou marques. Elles ne seraient donc enregistrables que par les ayant-droits, mais en aucun cas par l'internaute lambda.
Cela revient à dire qu’à un registre fermé donné devrait correspondre « un seul domaine » (l'extension), dont les sous-domaines seraient uniquement utilisés à des fins internes : par exemple, il n’y aurait qu’un seul « registre fermé » en charge du « .google », qui pourrait avoir une infinité de sous-domaines : maps.google / gmail.google / picasa.google, etc.

Ceci dit, quel serait l’avantage par rapport à l’actuel .com ? Bof !

Resterait ensuite à définir au cas par cas (par un Comité d'évaluation des candidatures, par exemple) si une extension .sport ou .hotel est ouverte ou fermée, selon la règle du premier arrivé, premier servi qui caractérise les enregistrements Internet depuis le début. Puisqu'en outre il est à prévoir que nombre de sociétés ayant déposé des marques contenant "hotel" ou "sport" tenteraient de les faire valoir...

En revanche la distinction faite par l'ICANN n'est pas au niveau des registres mais des extensions, définies extensions communautaires (“community-based”) ou extensions ouvertes (“open”). En fourrant les entreprises dans les extensions ouvertes, chose qui est selon moi un parfait contre-sens.

Certes, la distinction est loin d'être évidente, mais pour les entreprises - qui sont probablement le premier marché cible visé par l'ICANN avec ces nouvelles extensions - le principal problème est que cette nouvelle extension s’ajouterait seulement au .com et aux autres au lieu de s’y substituer

Or un avantage véritablement décisif du « registre fermé » par rapport à la formule actuelle serait que l’attribution du .google par l’ICANN interdirait de facto l’attribution d’un google.TLD quelconque en vertu des accords bilatéraux signés entre les registres et l’ICANN !

Ce serait également un moyen radical de résoudre tous les problèmes liés au cybersquatting, et même, pour aller plus loin dans le raisonnement, on pourrait aussi envisager d’associer au .google (et à tous les autres ayant ce statut) toute une série de typos réservés, ce qui balaierait d’un coup la plupart des problèmes liés au typosquatting…

D'autant plus qu'aujourd'hui, calculer tous les typos d'un nom ne prend guère plus que quelques secondes. Du reste, Google et les autres moteurs les ont déjà en mémoire !


Car il est évident qu'avec des centaines d'extensions à présent, et demain peut-être quelques milliers, on va pas quand même obliger les marques à faire des dépôts préventifs dans toutes les extensions, alors même que la protection de la marque et du nom de domaine sont des enjeux stratégiques pour les entreprises !

Déjà que dans près de 90% des cas elles se protègent comme elles peuvent pour les extensions .COM, .NET et .ORG, y compris pour les typos (voir le premier commentaire de ce billet), et parfois pour les IDN, ce serait totalement irréaliste de les obliger à dépenser des millions d'euros en plus ! [Début]

* * *

Conclusion

Voilà donc un contre-sens encore plus gros que le premier (comme je l'ai déjà dit, il faudrait offrir aux marques une nouvelle extension qui ne s'ajoute pas à toutes les autres, mais qui les remplace !), également relevé entre les lignes de l’avis de la Division Antitrust, qui observe :
Les déposants prennent fréquemment des domaines dans des extensions autres que le .com non pas pour les substituer au .com mais comme compléments aux domaines en .com. En d’autres mots, les déposants d’un domaine donné en .com (par ex. google.com) ressentent souvent la nécessité d’enregistrer le même nom de domaine dans la plupart des extensions disponibles (par ex. google.info, google.biz) parce qu’ils souhaitent à la fois étendre leur présence sur Internet et protéger leurs marques en empêchant qu’elles puissent être exploitées par d’autres.
Et de préciser :
Au final, notre analyse de l’accord avec Verisign sur le .com a mis en évidence que d’autres opérateurs de registre pourraient détenir un positionnement sur le marché qui serait quoi qu’il en soit significatif, quand bien même moins important que celui de Verisign.
D'où l'importance de fixer des limites claires à la distinction registres ouverts vs. registres fermés, tout au moins pour éviter de ressortir et valider le concept de prix à la carte en fonction des registres, même s'il est évident qu'il pourrait y avoir des conditions différenciées.

Par conséquent, en insistant fortement sur les questions concurrentielles, la Division Antitrust fait les préconisations suivantes :
Les mécanismes d’appels d’offres mis en place par l’ICANN devraient expressément :

1. prévoir des offres spécifiant le prix initial maximum facturé par l’opérateur pour l’enregistrement des domaines, de même que les limitations des augmentations tarifaires dans le temps ;

2. encourager la performance en demandant aux soumissionnaires de proposer des spécifications et des niveaux de service dépassant les standards minima fixés par l’ICANN ;

3. solliciter d’autres propositions à l’avantage des consommateurs, telles que l’engagement de l’opérateur de ne pas pratiquer de prix discriminatoires entre les déposants (pour éviter de prendre en otage -
"to hold up" - les déposants ayant déjà investi dans leurs noms de domaine), ou encore de ne pas inclure l’achat de services groupés comme condition de l’enregistrement (pour limiter le contournement des prix plafonnés) ;

toutes ces conditions devraient être mentionnées noir sur blanc dans les accords de registre pour que l’ICANN soit en mesure de les faire appliquer.

En outre, bien que les mécanismes d’appels d’offres soient le meilleur moyen de stimuler la compétition dans de nombreux cas, ils ne sont pas toujours efficaces. Et vu que le nouvel accord de registre proposé ne prévoit aucune des mesures de sauvegarde prévues au chapitre 7.3 de l’accord passé avec Verisign sur le .com ou dans les accords existants avec d’autres registres, l’ICANN devrait revoir sa proposition d’accord de registre (prix plafonds et augmentations limitées d’une année sur l’autre), tout au moins pour les cas où il n’y aurait pas d’appel d’offres compétitif pour gérer une nouvelle extension, afin d’englober des mesures et des mécanismes tels que précisés aux points 1, 2 et 3 ci-dessus. En dernier lieu, il serait préférable de prévoir des accords de long terme (l’enregistrement peut valoir jusqu’à 10 ans dans l’accord du .com).
Et de conclure ainsi :
À ce jour, nous pensons que l’ICANN est loin d’avoir rempli ses obligations de faire levier sur les principes concurrentiels pour gérer les opérations avec les registres des extensions génériques de premier niveau.
Pour finir, compte tenu de tout ce qui vient d'être exposé, dans ce billet et dans le précédent, je ne vois pas comment l'ICANN pourrait ouvrir les nouvelles extensions dans les délais prévus sans d'abord revoir sa copie ! [Début]



Partager sur Facebook

P.S. Je m'étonne d'ailleurs que certains beaucoup de médias traditionnels (mais pas seulement...) relatent l'info du dépôt de candidature par la municipalité de Paris en février 2009, en donnant quasiment pour acquise l'obtention du nom (la ville devrait remettre un dossier final le 30 septembre 2009 et obtenir son nom de domaine dès le premier trimestre 2010), « (à) condition toutefois qu'elle trouve un accord sur les prix avec l'Icann ». Comme si c'était la seule condition...

, , , , , ,

jeudi 8 janvier 2009

Noms de domaine et parking : Parking 2.0 vs. Parking 1.0

Noms de domaine et parking : Parking 2.0 vs. Parking 1.0

Parking 1.0 : déclin d'un modèle économique qui s'essouffle
Parking 2.0 : évolution du parking et nouveaux modèles économiques

* * *

Parking 1.0 : déclin d'un modèle économique qui s'essouffle

Il y a longtemps que je voulais faire un billet sur la nature et l'évolution du parking. En France, les gens ont tendance à liquider ça d'un revers de main, en criant bien haut et fort comme quoi c'est indécent, et ceci et cela. Et puis le parking c'est du cybersquatting, et du typosquatting, et du phishing, et ceci et cela.

Mais point de discussions véritablement sérieuses, à part sur Blogodomaines, mais c'est normal, me direz-vous, puisqu'il est partie prenante. Il n'empêche, ce n'est pas parce qu'on est partie prenante qu'on écrit forcément des choses intelligentes comme l'ami Rémy.

Qui nous fournit d'ailleurs une bonne illustration de comment fonctionnent actuellement le parking et le modèle économique qu'il y a derrière :


Un modèle économique aujourd'hui fortement en crise, nous allons voir pourquoi. Mais en tout état de cause, continuer à l'infini de faire l'impasse sur une réalité économique faite d'une vingtaine de millions de sites témoigne d'une absence totale de clairvoyance...

Tout d'abord je vais laisser de côté l'internaute et l'annonceur, même s'ils font clairement partie intégrante de l'écosystème "parking", pour me concentrer sur les trois types d'acteurs généralement impliqués :
  1. la régie publicitaire
  2. la plateforme de parking
  3. le titulaire du nom de domaine
1. La régie sert les pubs, c'est-à-dire qu'elle fournit les liens contextuels et/ou, plus rarement les bannières ;
2. la plateforme de parking héberge ces liens sur une page Web, vers laquelle pointe le nom de domaine ;
3. les titulaires de noms de domaine en parking ont un profil extrêmement segmenté, allant du simple particulier avec un seul ou quelques noms parqués, aux registrars du genre Moniker ou Fabulous & Co. qui peuvent gérer directement ou indirectement plusieurs millions de noms, en passant par des portefeuilles intermédiaires de quelques centaines à des milliers de noms, ou plus importants en quantité (Frank Schilling) (plus de 100 000 domaines) et/ou en valeur (Rick Schwartz) (+5 000, dont Candy.com, Properties.com, Tradeshows.com, Cheating.com, etc.).

Les registrars comme GoDaddy ou Domainsite (pour ne citer qu'eux) sont des cas à part, même s'ils ont en commun d'exploiter le parking en partenariat avec Google.

Or jusqu'à présent, la logique économique consistait essentiellement à cibler la pertinence des liens contextuels en fonction du nom de domaine et de son potentiel en navigation directe.

Mais bon, comme je l'expliquais ici, il n'y a qu'un seul nasa.com, ou meteo.com..., et par conséquent cette logique a trouvé ses limites, notamment à cause de la convergence de plusieurs facteurs :
  • la pratique de la navigation directe, dont les revenus étaient généralement estimés à 10-15% de l'ensemble des revenus générés par la recherche payante (chiffre encore à vérifier, si quelqu'un a des infos), est en perte de vitesse constante, au profit de la recherche directement dans les moteurs de recherche, un concept encore affiné avec la onebox de Chrome ;
  • la désaffection des internautes, de plus en plus las d'atterrir sur des pages poubelles truffées de liens publicitaires qui n'apportent désormais plus aucune valeur ajoutée à leur "expérience utilisateur" (sans parler des craintes implicites du genre : est-ce que je ne vais pas attraper un virus si je clique sur un de ces liens, etc.) ;
  • les grosses régies qui étaient les principaux pourvoyeurs de fonds des parkings - j'ai nommé Google et Yahoo! - changent lentement mais sûrement leur fusil d'épaule, Google en ouvrant à tous son programme AdSense for Domains, en rupture totale comme à son habitude, et Yahoo! en faisant n'importe quoi, comme à son habitude...
Résultat des courses : une baisse considérable des gains par clic (EPC - Earnings per click).

Quant aux prestataires de parking, comme l'explique Rémy, leur but ultime consistait à « agréger le plus de trafic possible pour pouvoir négocier des contrats plus intéressants avec les fournisseurs de liens publicitaires. Et ce pour pouvoir à (leur) tour offrir des taux de rémunérations toujours plus compétitifs à (leurs) clients. Et agréger encore plus de trafic (effet boule de neige) », voire à « se lancer eux-mêmes sur l’enregistrement et le rachat de noms de domaine pour s’assurer une taille critique ».

Donc maintenant que toutes les logiques qui ont assuré le succès de l'ère Parking 1.0 sont définitivement cassées, il serait peut-être temps de passer à l'ère Parking 2.0. Voyons comment. [Début]

* * *

Parking 2.0 : évolution du parking et nouveaux modèles économiques

La première réflexion est qu'une constante demeure entre les concepts de Parking 1.0 et Parking 2.0, à savoir que le parking reste un fort vecteur publicitaire, un formidable canal promotionnel pour peu qu'il soit ciblé et pertinent.

Les annonceurs et les régies ont accepté le parking tant qu'ils en jugeaient le trafic qualifié, traditionnellement avec des taux de conversion des pages parking jugés supérieurs à ceux des clics sur les moteurs de recherche (4,23% vs. 2,3%, selon une étude WebSideStory - Omniture aujourd'hui - qui a fait date).

Pour autant, le deuxième constat, c'est que l'ensemble de l'écosystème Parking 1.0 a été construit autour d'un grand absent : le CONTENU !

Or même si le parking est souvent une situation intermédiaire, qui permet de générer des revenus dans l'attente d'une revente, ça n'est pas une excuse pour faire n'importe quoi entre-temps. D'où la confusion de plus en plus justifiée entre les pages parking et les MFA (Made for Adsense), vu que pendant longtemps Google n'a pas vraiment fait grand chose pour corriger ses incohérences...

D'où également la connotation de plus en plus négative du parking, associé à du parasitage pur et simple par une grande partie du public francophone. L'approche des anglo-saxons est différente, comme souvent sur Internet, ce qui n'empêche que les internautes se retrouvant sur ces pages sont de moins en moins considérés "qualifiés" par les annonceurs, qui font également l'amalgame avec la fraude aux clics.

Une situation critique qui demande un renversement de tendance net. Comment ? En inversant la traîne, tout simplement, c'est-à-dire en passant de la longue traîne à la grande traîne de l'UGC :
  1. en insufflant du contenu dans le parking, et si possible du contenu pertinent, de qualité ;
  2. en rémunérant enfin les créateurs de ce contenu à travers un partage des revenus plus favorable.
Fini les vieux critères de partage, tout le monde y trouverait son compte. Des internautes aux annonceurs...

D'où une nouvelle définition du parking, qui m'a été soufflée par Jean-Philippe Hermand : crédibiliser les liens publicitaires par la pertinence du contenu.

On constate d'ailleurs un désir de diversification de plus en plus poussé chez des acteurs établis du parking, qui commencent à tourner autour de ces concepts, que ce soit celui de la pertinence via la sémantique (approche de SEDO qui investit dans Domainsbot), ou celui du contenu via le développement de véritables minisites (démarche de AEIOU, Kwikcontent, WhyPark ou Parking Revolution, entre autres).

Mon idée est différente. Pour moi, le bon mix consisterait à alimenter automatiquement les pages parking en flux RSS pertinents par rapport aux noms de domaine, sur le modèle Wikio de catégorisation thématique et de création de pages à la volée (ce que fait également fort bien Webjam).

Imaginez que chaque blogueur choisisse en opt-in que ses flux soient repris sur des parkings, naturellement contre un partage de revenus équitable entre les différentes composantes : la régie, l'agrégateur-distributeur de flux, les créateurs des contenus syndiqués et les titulaires des noms de domaine !

Coup double : une source de monétisation supplémentaire pour les créateurs de contenu d'une part, un flux ininterrompu d'UGC alimentant en automatique des pages parking complètement révolutionnées de l'autre.

Les spécialistes de l'AdSense pourraient objecter que si le contenu est trop pertinent, les internautes cliqueront moins sur les pubs. Soit. Mais de toutes façons, avec les formules actuelles, ils ne cliquent plus dessus de toute façon. À tel point que tout le monde - des annonceurs aux régies en passant par les utilisateurs - ne demande plus qu'une chose : de la qualité !

C'est le concept de smart pricing chez Google :
Ajoutez toujours plus de contenu pertinent à votre site et maintenez-le à jour afin de conserver l’intérêt de vos visiteurs. Si vos visiteurs sont intéressés par vos pages et qu’ils cliquent sur l’une de vos annonces, ils effectueront probablement une action sur le site de l’annonceur partenaire et votre taux de conversion s’en verra augmenter, de même que vos revenus. Du contenu de qualité se traduit souvent par une expérience positive pour vos visiteurs et vos annonceurs.
Donc s'il est vrai qu'il n'y a plus de qualité sans contenu pertinent fréquemment réactualisé, il est tout aussi vrai que personne n'a encore trouvé le moyen d'alimenter en temps réel des centaines de milliers - voire des millions - de sites parking en contenu de qualité.

Ce que pourrait assez facilement faire une plateforme comme Wikio, j'en ai déjà parlé avec Pierre Chappaz il y a plusieurs mois, mais il ne m'a pas semblé convaincu. D'où ma décision de partager mes idées avec la "communauté", juste pour tester le retour et collecter vos critiques et suggestions.

Au départ, me semble-t-il, c'était un peu l'idée de Blogbang, qui a pourtant réussi à casser dans la foulée une dynamique particulièrement porteuse, en merdant totalement le back-office après un démarrage en trombe. Dommage ! Et difficile à rattraper. Même si avoir Publicis derrière, ça peut aider...

Quant à cette (r)évolution des pages parking, il faut qu'elle n'ait pas seulement lieu sur le fond (le contenu), mais aussi sur la forme, en allant plus loin que la logique Google (depuis longtemps, et plus que jamais, dans le business...) :


En calquant la conception de ces pages sur le modèle des (r)évolutions qui attendent les traditionnelles pages de résultats, par exemple, encore « aujourd'hui TRÈS largement sous-exploitées, en termes de présence optimisée :
  • par les images
  • par les vidéos
  • par les cartographies
  • par les médias sociaux
  • par les widgets
  • multiforme et multiformats (blogs, sites, pages de réseaux sociaux, sites de partages de favoris, de documents...)
  • par la publicité
Etc.
»

Mais ce sera un autre débat ... dont j'espère qu'il aura lieu ! [Début]



Partager sur Facebook

, , , , , , , , , , , , , , , ,

mercredi 7 janvier 2009

Gouvernement des Etats-Unis vs. ICANN

Quand les nouvelles extensions génériques de premier niveau (gTLDs) verront-elles le jour ?

Introduction

La lettre de la NTIA
Extraits de l’avis de la Division Antitrust : les questions concurrentielles

Registres ouverts vs. Registres fermés…
Conclusion

N.B. Merci Martin de m’avoir signalé la chose, puisque je suis resté sans connexion Internet pendant près de deux semaines !

* * *

Introduction

Stephane Van Gelder nous rapporte que l'ICANN fait sa pub dans "The Economist" pour présenter son programme de création des nouvelles extensions.


Et il conclut son billet :
Mais peut-on aussi y voir une sorte de réponse à ceux qui se sont émus du commentaire fait par le Département du Commerce américain sur les nouvelles extensions ? Beaucoup ont vu dans cette lettre postée sur le site de l'ICANN une critique acerbe du programme des nouvelles extensions. Vu que ce dernier est en cours d'élaboration depuis plusieurs années et que le DoC était forcément au courant, on est en droit de se demander si la critique est aussi féroce que certains voudraient nous le faire croire. Ou en tout cas, si elle est de nature à remettre en cause le programme.

Pour l'ICANN, faire ainsi la publicité de son programme de nouvelles extensions et rappeler que ce dernier doit démarrer en 2009 ne serait-il donc pas aussi un signal fort envoyé quant à la pérennité de ce programme ?
Personnellement, j'en doute fort, très fort même, et je crois plutôt à un gigantesque coup de bluff de l'ICANN. Je vais tenter d'expliquer pourquoi, d'abord en présentant le commentaire traduit de la NTIA et des extraits de l’avis de la Division Antitrust dans ce billet, puis en donnant mon avis dans un deuxième à paraître... [Début]

* * *

La lettre de la NTIA (traduction) (original)
Le 23 octobre 2008, l’ICANN a soumis aux commentaires du public une série de documents corrélés – y compris des lignes directrices pour le montage des dossiers –, relatifs à la volonté de l’ICANN d’introduire de nouvelles extensions génériques de premier niveau (gTLDs). Le Département du Commerce (Département) saisit l’occasion pour donner l’avis du gouvernement des États-Unis sur un sujet aussi important.

Nous comprenons que l’introduction de nouvelles extensions génériques est un objectif qui s’inscrit depuis longtemps dans le Projet DNS, mais nous croyons également que le socle sur lequel appuyer cette initiative est le Protocole d’accord fondateur signé entre le Département et l’ICANN, stipulant que l’un des principes clés est la nécessité d’administrer le système d’adressage des noms de domaine sur Internet (DNS) de façon à permettre aux mécanismes du marché d’encourager la compétition et le choix des consommateurs en abaissant les prix, en promouvant l’innovation et en accroissant le libre choix et la satisfaction des utilisateurs. Donc, tout en reconnaissant les efforts déployés et le dur travail fourni par l’ICANN pour rédiger les documents actuellement soumis aux commentaires du public, la façon dont a été abordé et fixé le seuil à partir duquel les avantages potentiels dépassent les coûts potentiels pour les consommateurs n’est pas très claire. À ce propos, nous souhaitons attirer votre attention sur la nécessité, délibérée par l’ICANN lors de la réunion de son Directoire le 18 octobre 2006, de mener une étude économique pour affronter des questions telles que :
  • le marché de l’enregistrement des noms de domaine est-il un marché unique ou chaque extension de premier niveau fonctionne-t-elle comme un marché distinct ?
  • les enregistrements auprès de différentes extensions de premier niveau sont-ils substituables ?
  • quels sont les effets des coûts supportés pour passer d’un Registre à l’autre sur le comportement des consommateurs et sur l’évolution de la tarification ?
  • quels effets la structure du marché et la tarification ont-elles sur les nouveaux entrants ? et,
  • existe-t-il d’autres marchés confrontés à des problématiques semblables, et si oui, comment ces problématiques sont-elles traitées et par qui [sic] ?
L’ICANN doit donc mener cette étude économique et en soumettre les résultats à l’avis collectif avant d’introduire de nouvelles extensions génériques de premier niveau.

Le gouvernement des États-Unis reconnaît l’intention de l’ICANN de considérer attentivement les commentaires reçus durant cette phase et d’entreprendre des consultations ultérieures, y compris la révision des lignes directrices destinées aux candidats aux nouvelles extensions, avant d’introduire ces dernières. Sur ces bases, voici une liste de problèmes spécifiques dont nous pensons qu’ils devraient être résolus dans les documents actuels :
  • s’assurer que l’introduction d’un grand nombre potentiel de nouvelles extensions, y compris des extensions IDN, ne mette pas en danger la stabilité et la sécurité du DNS ;
  • revoir le processus d’approbation des nouvelles extensions, les lignes directrices pour les candidats et la proposition d’accord de Registre afin de :
    1. prendre en considération, autoriser les objections et conserver l’autorité nécessaire pour combattre tout effet néfaste sur l’écosystème concurrentiel susceptible d’apparaître en phase d’approbation des candidatures aux nouvelles extensions ou de renouvellement des contrats en découlant ;
    2. mettre en place des mécanismes compétitifs d’appels d’offres permettant de mettre en concurrence les opérateurs candidats pour qu’ils soient amenés à proposer des conditions de registre – y compris au niveau des engagements sur la qualité de service et les tarifs – susceptibles d’apporter des avantages aux consommateurs ; et
    3. imposer un plafonnement des tarifs ou d’autres conditions susceptibles de se traduire en avantages pour les consommateurs dans les cas où les mécanismes compétitifs d’appels d’offres ne limiteraient pas suffisamment la puissance de positionnement sur le marché des opérateurs de registre ;
  • démontrer que l’CANN a les capacités suffisantes pour faire respecter les conditions contractuelles avec un nombre encore indéfini de nouveaux cocontractants, spécialement à la lumière des questions encore en suspens relatives aux contrats actuels (tels que les avenants proposés aux Accords d’accréditation des Registreurs ou les problèmes concernant la fiabilité du système de reporting des données du WHOIS) ;
  • définir la façon dont l’ICANN conduira l’audit légal des candidatures, considérera les objections légales soulevées par des tiers, et dégagera sa responsabilité en assurant que le processus d’introduction des nouvelles extensions respecte toutes les législations compétentes, nationales et internationales, y compris les droits de propriété intellectuelle ;
  • se concentrer sur les fonctions techniques de coordination relatives à la gestion du DNS et non pas sur des aspects qui incombent plus spécialement aux gouvernements, telles que les questions d’attribution de moralité, d’ordre public ou les objections de la communauté en rapport avec les législations internationales sur les droits de l’homme. Les mécanismes proposés pour traiter ces problématiques sont inappropriés ;
  • créer un mécanisme apte à fournir une liste élargie de noms réservés pour les nouvelles extensions de premier niveau, et, selon les exigences, de noms relatifs aux infrastructures ou aux impératifs techniques ; et,
  • articuler un raisonnement clair autour de la structure tarifaire proposée, ainsi qu’un mécanisme transparent – incluant l’accord de la communauté – pour l’allocation des revenus excédentaires, s’il y en a, vu le statut de l’ICANN en tant qu’organisation à but non lucratif.

Le gouvernement des États-Unis partage l’engagement de l’ICANN pour promouvoir la compétition sur le marché des noms de domaine tout en assurant la stabilité et la sécurité d’Internet, et souhaite continuer à participer à ce processus de manière à ce que les préoccupations collectives de la communauté Internet soient prises en compte avant que l’ICANN ne s’engage à introduire de nouvelles extensions de premier niveau.
Et pour donner encore plus de force à son propos, cette lettre s'accompagne d'un avis de la Division Antitrust (Département de la Justice), signé Deborah A. Garza, qui émet deux recommandations spécifiques : [Début]

* * *

Extraits de l’avis de la Division Antitrust : les questions concurrentielles
Primo, l’approche générale de l’ICANN aux nouvelles extensions devrait être revue pour prendre davantage en considération les intérêts des consommateurs. L’ICANN devrait évaluer plus précisément le ratio inconvénients potentiels vs. avantages potentiels pour les consommateurs avant d’ajouter de nouvelles extensions ou de renouveler les accords de registre relatifs aux nouvelles extensions.

Secundo, le processus RFP et l’accord de registre proposé devraient contenir des mesures permettant à l’ICANN d’empêcher les nouveaux opérateurs de registre d'exercer un pouvoir de marché trop puissant. En particulier, l’ICANN devrait mettre en place des mécanismes compétitifs d’autorisation de nouvelles extensions et de renouvellements d’accords de registre par lesquels les opérateurs candidats sur les extensions génériques de premier niveau seraient mis en concurrence pour proposer des conditions de registre – y compris des barèmes tarifaires plafonnés – susceptibles d’apporter des avantages aux consommateurs.
J'aborderai donc de façon plus détaillée les questions concurrentielles dans un deuxième billet, et je conclurai en donnant mon avis, pondéré en fonction des éléments dont on dispose aujourd'hui. [Début]



Partager sur Facebook

, , , , , ,

mardi 6 janvier 2009

200 millions de sites web en 2009

200 millions de sites web en 2009 ?

Dans la série "prédictions pour la nouvelle année 2009", les miennes seront les suivantes :

- 200 millions de sites Web d'ici la fin de l'année
- 200 millions d'utilisateurs de Facebook

* * *

200 millions de sites Web en 2009


Selon Netcraft, il y avait 186 727 854 sites Web fin 2008 :


Selon Verisign, 174 millions :


Donc on va pas chipoter, en faisant la moyenne (186 + 174 / 2 = 180), ça nous donne une estimation vraisemblable de 180 millions de sites Web début 2009.

Maintenant, en appliquant les pourcentages indiqués par Verisign dans son rapport de décembre, nous avons près de 40% d'extensions pays (ccTLDs), dont 47% de ces extensions pays sont dominées par trois Registres : Chine, Allemagne et Royaume Uni.

Toutes extensions confondues, voici le classement des dix premières :
  1. .com
  2. .cn
  3. .de
  4. .net
  5. .org
  6. .uk
  7. .info
  8. .nl
  9. .eu
  10. .biz

À noter qu'au troisième trimestre 2008 VeriSign a enregistré des pics de traitement dépassant 50 milliards de requêtes/jour sur le DNS, concernant aussi bien l'accès des internautes aux sites Web que les échanges de courriels.

Quant à la répartition de sites actifs, sur 89 millions de sites analysés, il y aurait 21% de parkings (en posant comme hypothèse - vraisemblable - que les sites d'1 seule page sont des parkings), 68% de sites actifs et 11% de redirections (toujours en posant comme hypothèse - vraisemblable - que les domaines qui n'ont pas de sites associés pointent vers des redirections) :


Le fait est que Quensis (qui vient d'ouvrir son site chinois, soit dit en passant), trace déjà l'activité quotidienne de plus de 20 millions de parkings ! Dont les revenus déclinent fortement, mais c'est une autre histoire.

Ceci dit, en prenant le taux de 68% de sites actifs et en l'appliquant aux 180 millions de sites Web actuels, ça nous donne quand même plus de 120 millions de sites qui ont plus d'une page...

Imaginez d'ailleurs le nombre de pages de sites comme Google, Yahoo!, Microsoft ou ... Facebook !

Ce qui m'amène à ma seconde prévision pour 2009, puisqu'en janvier 2008 j'annonçais le dépassement des 100 millions d'utilisateurs avant la fin de l'année, en concluant ainsi mon billet :
Rendez-vous début 2009 pour vérifier :-)
Or fin décembre Facebook comptait déjà 140 millions de membres, soit un gain proche de 90 millions d'adhérents au service juste sur l'année 2008, avec 550% de croissance en un an et demi.

D'ailleurs, en maintenant cette progression, ce ne serait pas 200 mais 250 millions de facebookiens à la fin de l'année !

Donc 200 millions est une évaluation prudente. Nous verrons...



Partager sur Facebook

, , , , , ,

mercredi 17 décembre 2008

Noms de domaine : nouvelles extensions en 2009 - II

I. Coûts des nouvelles extensions
II. Combien de candidatures ?

Nous l'avons vu, l'ICANN prévoit de renflouer ses caisses à hauteur de 92,5 millions $, en tablant au minimum sur 500 candidatures (500 x 185 000 $), même si d'autres prévisions font état de 10 fois plus...

Or nous avons vu aussi, compte tenu des coûts "accessoires", qu'un ticket d'entrée aurait probablement une fourchette basse comprise entre 300 et 350 000 $, si tout se passe bien, avec ensuite, en étant très optimistes, des frais de gestion autour de 100 000 $ par an (les coûts de registre sont renouvelables chaque année), ce qui représente des sommes importantes. Pas pour tout le monde, certes, mais quand même !

Sans compter les aléas stratégiques pour les marques, dont le plus rédhibitoire est sans aucun doute que cette nouvelle extension ne se substituerait pas aux autres mais s'y ajouterait. Une nuance de taille, au sens où cela ne résoudra en rien les problèmes traditionnels de propriété intellectuelle (typosquatting & co.), et que toutes les marques devront continuer de se protéger comme si de rien n'était sur toutes les autres extensions (globalement, pas loin de 300).

À ce compte-là, le budget "noms de domaine" des marques risque vite de prendre des proportions considérables. Au point que seules certaines multinationales pourront se permettre un tel luxe !

Donc, pour en revenir à l'ICANN, si l'on fait le compte des candidatures actuellement déclarées, elles n'atteignent pas même la cinquantaine, et ce sont essentiellement des GeoTLDs, c'est-à-dire des extensions villes, régions, cultures, langues...


En France, nous avons par exemple les candidatures du .Paris et du .bzh pour la Bretagne.


Sous l'impulsion du .CAT catalan (24 000 noms de domaine enregistrés en un an), plusieurs extensions régionales ont décidé de se regrouper.

Mais l'histoire du .SCO, à l'heure où 59 % des écossais préféreraient un .SCOT, illustre bien les problèmes de trésorerie de toutes les villes et régions autres que Paris, Berlin ou New York...

Dans un message adressé à l'ICANN, SCO soulève plusieurs points, et notamment la question des coûts, en demandant un ajustement (de 185 000 $ à 50 000 $) et en proposant un plafond de 10 000 $ pour les coûts d'exploitation annuels de registre :
The draft guidebook states that the estimated application fee for a new gTLD will be (US)$185,000. We continue to work to ensure that a Scots community will be able to adequately meet this cost – but we are extremely concerned that this fee is very high for bidders for community/city TLDs.

In short, a community TLD will operate on a model which is considerably more restrictive than any open TLD and will have the overriding aim of serving their respective communities interest – not necessarily sell huge volumes of domains. We would propose that the application fee should be reduced (or at very least be reduced significantly for applications for community TLDs) in order to recognise their purpose as servants of their communities. To reflect this, an application fee for community applications that was closer to (US) $50,000 would be welcome.

dotSCO contends that application fee reduction is necessary if ICANN is to meet its aspirations for online communities to have a more democratic, global, multicultural and multilingual Internet.

The annual Registry ICANN fee of (US)$75,000 is a huge cost to a not-for-profit community registry that dotSCO is seeking to establish. A variable registry operation fee may be a more equitable way to operate the annual ICANN fee. Our proposal would be that community TLDs pay a small percentage of their annual surplus/profit to ICANN – up to a maximum ceiling of (US) $10,000 per year. Should a community TLD be taken up in large volumes (on a par with strings such as BIZ) then there may be a case for a revision of the annual fee beyond the (US) $10,000.
Comme quoi le problème des coûts reste sensible pour de nombreux candidats, et en ces temps de récessionite aiguë, l'ICANN ferait peut-être bien de ne pas avoir les yeux plus gros que le ventre.

Car avec moins d'une cinquantaine de dossiers prévisibles, il ne lui reste plus qu'à trouver et motiver les 9/10e des candidatures manquantes... Pour ce faire, une opération de communication massive est prévue courant deuxième trimestre 2009, mais cela suffira-t-il ? Et en direction de qui ?

De fait, les extensions géographiques font partie de ce que j'appelle les extensions communautaires (“community-based”), l'un des deux types de nouvelles extensions génériques (gTLDs) définies par l'ICANN. Les autres étant les extensions ouvertes (“open”).

Dans le premier cas, seules des communautés clairement identifiées, établies et organisées pourront gérer ces domaines. Plusieurs types sont possibles, outre les communautés géographiques :

- des communautés industrielles (.car, .pharma, .sport, .bank, .hotel, etc.)
- des sociétés (Corporate ou Brand TLDs)

Dans le second cas, celui des communautés ouvertes, les extensions pourront être gérées par tout type de candidat. Exemple : .blog, .kids, etc.

Et dans les génériques, pourra-t-il y avoir des concurrents proches, du genre .kid et .kids (singulier, pluriel, masculin, féminin, IDNs, ...) ?

Apparemment, oui :


Perso, je trouve que la distinction n'est pas toujours évidente, voyez les .sport ou .hotel, par exemple, comment déterminer s'il s'agit d'une communauté ouverte ou précisément définie ? Et comment réagiraient les détenteurs de marques dont "sport" ou "hotel" est l'une des composantes de leur marque ?

On peut d'ores et déjà se poser d'autres questions : que se passera-t-il avec les extensions .xxx, .sex ou .porn, compte tenu des antécédents de l'ICANN, dont l'on peut gager qu'elles seront parmi les premières applications ?...

En outre, chaque candidat devrait être son propre registre (je mets ça au conditionnel car ça reste à voir, et j'imagine déjà que les registres et registrars actuels se frottent les mains pour sous-traiter leurs compétences techniques à des candidats qui ne sauront même pas par où commencer...), et il y aura des registres ouverts et fermés. Ouverts lorsque le domaine sera disponible à l'enregistrement des déposants lambda, fermés lorsque le domaine ne sera réservé qu'à la communauté de référence.

Vous le voyez, le pari de l'ICANN est très très ambitieux, trop peut-être. Personnellement, je pense qu'ils ont placé la barre trop haut et que le gros du marché "naturel" de l'ICANN dans les nouvelles extensions, à savoir les entreprises, pourraient ne pas suivre. À moins que l'ICANN ne cherche vraiment à mettre en place une politique raisonnable, où les nouvelles extensions ne s'ajouteraient plus, mais remplaceraient les extensions existantes.

Faute de quoi toute cette histoire pourrait bien n'être qu'un coup dans l'eau. À moins que l'ICANN ne réduise ses prétentions...



Partager sur Facebook

, , , , , ,