Affichage des articles dont le libellé est Long Tail. Afficher tous les articles
Affichage des articles dont le libellé est Long Tail. Afficher tous les articles

vendredi 9 janvier 2009

Google : la longue traîne des annonceurs

Titre emprunté à Peter Kafka, qui nous explique qu'en 2007 Google a perçu en moyenne 16 000 $ par annonceur, pour 1 million d'annonceurs ! Avec la progression suivante :


Légende : 89 000 en 2003, 201 000 en 2004, 360 000 en 2005, 600 000 en 2006 et 1 million en 2007. On connaît pas encore 2008, mais j'imagine que la progression sera proportionnelle exponentielle (voir en commentaire).

Il serait vraiment temps d'inverser la traîne...



Partager sur Facebook

, , , , , , , , , , ,

vendredi 27 juin 2008

Turning the Tail: from Long Tail to Big Tail

Turning the Tail: from Long Tail to Big Tail

Inverser la traîne - Passer de la longue traîne à la grande traîne (French version)

Turning the tail...

* * *

In a seminal article titled The Long Tail, published in October 2004 on Wired, Chris Anderson described a new niche strategy where it became possible to sell large numbers of unique items in relatively small quantities.


In fact, what would have been uneconomic in brick and mortar businesses was becoming possible AND profitable thanks to the Internet.

This concept of the “long tail” flourished and now applies to many other situations, such as domain names, for example, as well as (and especially) advertising. In particular since Google’s impressive conceptual – and commercial – innovation with the famous pair AdWords-AdSense.

In an interesting post on this matter, Scott Karp does an excellent job explaining wherein lies the innovation: factoring relevance into the auction model!

Let me explain: from 1999 to 2001, AdWords operated on a CPM basis, or cost per thousand impressions, the fee structure in fashion at the time, where advertisers were billed based on the number of impressions of their ads.

However, as Sergey Brin himself said, “It didn’t generate much money”.

In his book, The Search, John Battelle tells us that income from AdWords rose to about $85 million in 2001, while Overture earned $288 million the same year with its auction model operating on a CPC basis (cost per click, or the amount an advertiser pays for each click on its ad).
An auction system enables the advertiser to determine the cost per click incurred when users visit its site as a sponsored link. The starting bid is set at 0.15 $ per click. When the visitor enters keywords that were bid on, the search engine results page offers sponsored links, with the highest bidder’s site at the top of the list.
But Google couldn’t simply use Overture’s business model, unless they wanted a lawsuit. Even so, the lawsuit still happened and lasted more than two years, until the parties came to an agreement and dropped the suit.

However, it’s the essential difference between the two systems that enabled Google to defend itself and avoid a sentence: where Overture automatically linked the top ranking in the results to the highest bid value, Google introduced the idea of relevance, or rather popularity, with clickthrough rate (CTR), whose official definition is:
the number of clicks your ad receives divided by the number of times your ad is shown (impressions).
In other words, the bid value now became just a component, factored by the applicable clickthrough rate. John Battelle explains it the most clearly:
(A)ssume further that Accountant One is willing to pay $1.00 per click, Accountant Two $1.25, and Accountant Three $1.50. On Overture's service, Accountant Three would be listed first, followed by Accountant Two, and so on. The same would be true on Google's service, but only until the service has enough time to monitor clickthrough rates for all three ads. If Accountant One, who paid $1.00 per click, was drawing more clickthroughs than Accountant Three, then Accoun- tant One would graduate to the top spot, despite his lower bid.
A tiny innovation, but it took Google from $85 million in revenue in 2001 to billions just 7 years later!

And that’s not all: since apparently no one as improved upon it, most of the major Internet players are still looking for a decent business model.

In fact, this notion of relevance is also at the source of PageRank, at the heart of Google’s success. They go hand in hand. A search marketer cuts to the chase: If you don't provide the results, you don't get the money...

Now, the other reason for mass adoption of Google’s advertising services is... the long tail, as John Battelle rightly describes (emphasis mine):
You think Amazon's got scale? You think eBay is huge? Mere drops in the bucket. Amazon's 2000 revenues were around $2.76 billion. But the Neil Moncreifs of the world, taken together, drove more than $25 billion across the Net that same year, according to U.S. government figures. That's the power of the Internet: it's a beast with a very, very long tail. The head-eBay, Amazon, Yahoo-may get all the attention, but the real story is in the tail.
The power of the Internet is in the tail!

This is how Google achieved such amazing success. It was the only one to match advertisers’ needs with the fuel they required in abundance on the Internet: RELEVANT content. With an innovative ad server that enables millions of small sites and blogs to monetize their content, or at least to hope to...

But where Yahoo! had a presence since the beginning – since well before Google and before running astray – today Jerry Yang's abdication hands Google 90% of the advertising pie practically on a silver platter (if antitrust authorities accept it... even as advertisers already devote about 70% of their search budgets to Google!). All the other ad servers combined share the remaining 10%.

Even so, in 2008 no one has any illusions anymore (as Emmanuel Parody commented caustically: AdSense paying for content? That’s a joke...) and UGC, even if it continues to be created at full tilt, is no longer monetized like it should be (has it ever been?). Leaving millions of content creators fed up with their content be reused and monetized by the Web giants without any satisfactory form of payment or revenue sharing. [Top]

* * *

Turning the tail

A disruption in this success story is possible, however: it would just require turning the tail, to move from the long tail of UGC to the big tail, represented by the yellow part in the graph:


(no, This is not a pipe!)

To illustrate my idea, in a predictable imbalance predicted indeed by Clay Shirky in 2003, the analysis of 433 blogs ranked by number of incoming links illustrated the concept of the long tail nicely, with at the head:
  1. top two sites accounted for fully 5% of the inbound links between them,
  2. top dozen (less than 3% of the total) accounted for 20% of the inbound links, and
  3. top 50 blogs (not quite 12%) accounted for 50% of such links.

Now imagine an analysis of not 433 blogs, but tens of millions of blogs, sites, social network pages, etc.

Then you will understand that the head (the green part), which we will arbitrarily say equals 30% of sites/blogs/pages that would form the network’s core in the good old bow-tie theory (i.e., the core of most interconnected sites where the most links and traffic converge and are shared), no longer cuts it when the UGC mainstream now forms not the long tail, but the big tail of the Web, rather predominant today.

There is the real issue for UGC and the creators behind it: they lack representation: Everyone is mooching off their content to monetize it better than everyone else, but nobody really monetizes it at its fair value.

In fact, currently only the head attracts advertisers, while the tail is left to Google, which takes full advantage of it without fearing the inconsistencies...

My prediction is that the first player who succeeds in doing what Google did five years ago with AdSense, this time adapting relevance and fair revenue sharing for UGC, will introduce an even more formidable break with the past, with the added blessing of content creators, who are obviously the most harmed in and by the current system.

Turning the tail, moving from the long tail to the big tail, is the Internet’s next big challenge. Steve Ballmer himself says nothing less :
At the end of the day, this is about the ad platform. This is not about just any one of the applications. The most important application for the foreseeable future is search.
So we have all the data for the problem, and the first ad server that creates the RELEVANT mix to match advertisers’ needs on one side with the legitimate monetization expectations of content creators on the other side (matching the inventory of the latter based on the message of the former), will win the jackpot. Even if there are still a few unknowns.

It just has to be an ad... equate match! ;-) [Top]


Partager sur Facebook

, , , , , , , , , ,

samedi 21 juin 2008

Turning the Tail - Inverser la traîne

Inverser la traîne : passer de la longue traîne à la grande traîne

Turning the Tail: from Long Tail to Big Tail (Version anglaise)

Inverser la traîne...

* * *

Dans un article fondateur publié sur Wired en octobre 2004, intitulé The Long Tail (opportunément traduit en français par la longue traîne), Chris Anderson décrivait une nouvelle stratégie “de niche” où il devenait désormais possible de vendre un grand nombre d'articles uniques en relativement petites quantités.


En fait, ce qui aurait été anti-économique dans une économie traditionnelle devenait possible ET profitable grâce à Internet.

Ce concept de “longue traîne” a fait florès et s'applique désormais à de nombreuses autres situations, comme les noms de domaine, par exemple, mais aussi et surtout à la pub. Notamment depuis la formidable innovation conceptuelle – et commerciale – apportée par Google avec le fameux binôme AdWords-AdSense.

Dans un billet intéressant sur la question, Scott Karp explique très bien où est l'innovation : la factorisation du modèle d'enchères par la pertinence !

Explication : de 1999 à 2001, les AdWords fonctionnaient au CPM, ou coût pour mille impressions, modèle de tarification en vogue à l'époque, où les annonceurs étaient facturés en fonction du nombre d'impressions de leurs annonces.

Or selon Sergey Brin lui-même, ça ne générait pas beaucoup d'argent (“It didn’t generate much money”).

Dans son livre, The Search, John Battelle nous dit que les revenus tirés d'AdWords se sont élevés à environ 85 millions $ en 2001, alors qu'Overture réalisait 288 millions $ sur la même année avec son modèle d'enchères au CPC (coût par clic, ou montant payé par l'annonceur pour chaque clic sur son annonce):
Un système d’enchère permet ensuite à l’annonceur de déterminer lui-même le coût par clic engendré par la visite de son site en tant que lien sponsorisé. La mise à prix est fixée à 0,15 euros par clic. Lorsque le visiteur obtient la page de résultats du moteur de recherche en ayant entré des mots clés faisant l’objet d’enchères, des liens sponsorisés sont proposés, avec en tête le site du meilleur enchérisseur.
Google ne pouvait pas non plus se contenter de reprendre tel quel le modèle économique d'Overture, puisque c'était le procès assuré. Procès qui a d'ailleurs eu lieu et a duré plus de deux ans, jusqu'à ce que les parties se mettent d'accord entre elles et abandonnent l'action en justice.

Or c'est cette différence essentielle entre les deux systèmes qui a permis à Google de se défendre et d'éviter la condamnation : là où Overture liait automatiquement la première place dans les résultats à la valeur d'enchère la plus haute, Google a introduit la notion de pertinence, ou plutôt de popularité, avec le taux de clics (clickthrough rate – CTR), dont la définition officielle est la suivante :
Le taux de clics correspond au nombre de clics effectués sur votre annonce divisé par le nombre d'affichages (impressions) de celle-ci.
En clair, la valeur d'enchère n'était plus qu'une composante, factorisée par le taux de clics applicable. John Battelle l'explique de façon plus intelligible :
Sur trois annonceurs, le premier paie 1 $ le clic sur un mot clé, le deuxième 1,25 $ et le troisième 1,5 $ sur ce même mot. Sur Overture, c'est l'annonceur 3 qui se positionne automatiquement en premier. Tandis qu'avec Google, si l'annonceur 1 a un meilleur taux de clic que les annonceurs 2 et 3, il se positionnera devant les deux autres bien que sa valeur d'enchère soit plus basse que la leur.
Une innovation toute petite, toute simple, mais qui a quand même permis à Google de passer de 85 millions $ de recettes en 2001 à des milliards 7 ans plus tard !

Et ce n'est pas tout : puisque apparemment, personne n'a fait mieux depuis, la plupart des acteurs majeurs de l'Internet se cherchant encore un modèle économique décent.

En fait, on retrouve dans cette notion de pertinence la même qui est à l'origine du PageRank, au coeur du succès de Google. En outre, l'un ne va pas sans l'autre. Comme disent les américains avec leur pragmatisme habituel : If you don't provide the results, you don't get the money...

Maintenant, l'autre raison de l'adoption massive des services publicitaires de Google, c'est ... la longue traîne, comme le décrit justement John Battelle (c'est moi qui graisse) :
You think Amazon's got scale? You think eBay is huge? Mere drops in the bucket. Amazon's 2000 revenues were around $2.76 billion. But the Neil Moncreifs of the world, taken together, drove more than $25 billion across the Net that same year, according to U.S. government figures. That's the power of the Internet: it's a beast with a very, very long tail. The head-eBay, Amazon, Yahoo-may get all the attention, but the real story is in the tail.
La puissance d'Internet est dans la traîne !

C'est ainsi que Google a connu sa formidable réussite, seul à avoir su mettre en adéquation les nécessités des annonceurs avec le carburant dont ils avaient besoin en abondance sur Internet : du contenu PERTINENT. Avec une régie novatrice qui a permis à des millions de petits sites / blogs de monétiser leur contenu, ou pour le moins d'espérer...

Mais là où Yahoo! était présent depuis le début, c'est-à-dire bien avant Google et avant de s'égarer ensuite, aujourd'hui l'abdication de Jerry Yang apporte pratiquement sur un plateau 90% du gâteau publicitaire à Google (si les Autorités compétentes l'acceptent... et alors même que les annonceurs accordaient déjà environ 70% de leurs budgets « recherche » à Google !). L'ensemble des autres régies se partageant grosso modo les 10% restants.

Pour autant, en 2008, tous ne se font plus d'illusions (comme l'observe caustiquement Emmanuel Parody : croire qu'Adsense paye les contenus c'est une plaisanterie...) et l'UGC, même s'il continue d'être créé à plein régime, n'est plus monétisé comme il se devrait (l'a-t-il jamais été, d'ailleurs ?). D'où le ras-le-bol de millions de créateurs de contenus repris et monétisés par les grands du Web sans aucun reversement ni partage des revenus qui serait satisfaisant. [Top]

* * *

Inverser la traîne...

Une rupture dans cette histoire à succès serait pourtant possible: il suffirait d'inverser la traîne, pour passer de la longue traîne à la grande traîne de l'UGC, représentée par la partie jaune.


(non, ceci n'est pas une pipe !)

Pour illustrer ma pensée, dans un déséquilibre prévisible et prévu par Clay Shirky en 2003, l'analyse de 433 blogs classés par nombre de liens entrants illustrait bien ce concept de longue traîne, avec en tête :
  1. le top 2 représentant 5% des liens entrants
  2. le top 12 (soit moins de 3% du total) 20% des liens entrants
  3. le top 50 (soit moins de 20% du total) 50% des liens entrants

Donc imaginez maintenant une analyse portant non plus sur 433 blogs, mais sur des dizaines de millions de blogs, de sites, de pages de réseaux sociaux, etc.

Vous comprendrez alors que la tête (partie verte), à laquelle nous ferons correspondre de façon tout à fait arbitraire l'équivalent des 30% de sites / blogs / pages qui formeraient le cœur du réseau dans la bonne vieille théorie du nœud papillon (c'est-à-dire les entités plus interconnectées qui se partagent et où converge un maximum de liens et de trafic), ne fait plus le poids à l'heure où le mainstream de l'UGC forme, non plus la longue traîne, mais la grande traîne du Web, largement prépondérante.

Or là est le véritable problème de l'UGC et des créateurs qui sont derrière, c'est qu'ils manquent de représentativité : tout le monde tape dans leur contenu pour le monétiser à qui mieux-mieux, mais personne ne le monétise vraiment à sa juste valeur.

En fait, à l'heure actuelle, seule la tête attire les annonceurs tandis que la traîne est laissée à l'emprise de Google qui en profite au maximum sans craindre les incohérences...

Donc je prédis que le premier acteur qui réussira à refaire ce qu'a fait Google il y a cinq ans avec les AdSense, mais en adaptant cette fois la pertinence et un juste partage des revenus à l'UGC, introduira une rupture encore plus formidable vis-à-vis de tout ce qui a précédé, avec en plus la bénédiction des créateurs de contenu, qui sont évidemment les plus lésés dans et par le système actuel.

Inverser la traîne, passer de la longue traîne à la grande traîne, voilà le prochain défi à relever sur Internet. D'ailleurs Steve Ballmer lui-même ne dit pas autre chose :
At the end of the day, this is about the ad platform. This is not about just any one of the applications. The most important application for the foreseeable future is search.
Au bout du compte, la seule chose qui compte vraiment, ce sont moins les applications que la plateforme publicitaire. Et dans un avenir prévisible, la première des applications est la recherche.

Nous avons donc toutes les données du problème, et la première régie qui créera le mix PERTINENT pour faire coïncider les nécessités des annonceurs d'une part, avec les attentes légitimes des créateurs de contenus en termes de monétisation de l'autre (en matchant l'inventaire des seconds en fonction des messages des premiers), décrochera le jackpot. Même si la bonne équation a encore plusieurs inconnues.

En fait, c'est une ad... équation ;-) [Top]


Partager sur Facebook

, , , , , , , , , , ,

mardi 4 juillet 2006

Les noms de domaine et la longue traine

Le marché des noms de domaine et la longue traîne...

Préambule
Le marché des noms de domaine
Les noms de domaine et la longue traîne
Brève conclusion

Préambule

Comme je vous l'annonçais dans un précédent billet, c'est la semaine dernière que s'est tenue la conférence de l'ICANN à Marrakech. J'en profite pour adresser un salut amical aux lectrices et lecteurs d'Afrique du Nord qui viennent souvent me rendre visite sur ce blog. :-)

En cliquant sur la caricature ci-dessous (l'ICANN en plein travail), vous téléchargez un PDF avec une présentation succincte des sessions.


J'ai profité de ce week-end pour parcourir les retranscriptions des réunions qui ont eu lieu, vraiment riches tant de par l'ampleur et la variété des sujets traités, que de la qualité des intervenants. Ça ne vous étonnera pas si j'ai décidé d'approfondir en premier l'atelier consacré au marché des noms de domaine : Domain Name Marketplace Workshop. Voir la table des matières. Sans entrer dans les détails du cycle de vie d'un nom de domaine, de l'historique et l'évolution de ce marché ou autre, je préfère tenter une synthèse des éléments clés qui se dégagent de cette session, tels que je peux les percevoir. Je vous donne également la liste des participants auxquels je fais référence dans ce bref exposé : Toutefois, pour bien comprendre les propos qui suivent, rappelons d'abord quelques notions :
  • l'Add Grace Period est un délai de grâce de 5 jours concédé par l'ICANN à toute personne qui, s'apercevant d'une erreur d'enregistrement, peut annuler la procédure et récupérer sa mise ;
  • l'Add-drop scheme est « le modèle j'essaie - je prends/je jette », à savoir que j'enregistre le domaine et je le mets sur une page parking, puis si je vois que le trafic (essentiellement en saisie directe, ou type-in) peut devenir rentable je le prends, sinon je le « jette » et l'ICANN me rembourse obligeamment mes frais d'enregistrement ;
  • dans le contexte du domain tasting, ou domain kiting, le verbe Add signifie qu'un domaine est « ajouté » au système de Registre commun (SRS - Shared Registry System) ;
  • le Registre, ou Registry, est l'entité chargé de gérer les TLD, ou Top Level Domain : Verisign pour le .COM et le .NET, PIR pour le .ORG, Afilias pour le .INFO, etc. ;
  • le Registreur, ou Registrar, est le centre ou bureau d'enregistrement qui sert d'intermédiaire entre le Registre et l'utilisateur final qui enregistre un nom de domaine ;
  • l'enregistreur, ou Registrant, est l'utilisateur final pour le compte duquel est enregistré le nom de domaine ;
  • l'ICANN est l'entité « chargée d’allouer l’espace des adresses de protocole Internet (IP), d’attribuer les identificateurs de protocole, de gérer le système de nom de domaine de premier niveau pour les codes génériques (gTLD) et les codes nationaux (ccTLD), et d’assurer les fonctions de gestion du système de serveurs racines ».
[Début]
* * *

Le marché des noms de domaine

Jothan Frakes introduit la session et souligne, parmi les thèmes abordés, les nombreuses façons de monétiser les noms de domaine, l'évolution du marché des noms de domaine ces dernières années, et l'adéquation de certaines des activités liées à la monétisation, avant de passer la parole à Tim Cole, de l'ICANN, qui évoque timidement la pratique du taste-domaines :
...many people are using that period to test a name or the term has been coined to taste a domain name to determine whether or not it has monetization value.

...nombre de personnes utilisent le délai de grâce pour tester un nom de domaine (indépendamment de la manière dont on peut qualifier cette pratique), afin de déterminer si un domaine a une valeur ou non en termes de monétisation.
John Berryhill prend la parole :
Je voudrais brièvement décrire les forces du marché qui pilotent les intérêts spéculatifs derrière le commerce des noms de domaine, puis aborder le phénomène du taste-domaines (ou comme on voudra bien l'appeler), des pratiques qui évoluent plus vite que le développement des politiques par l'ICANN.

Autrefois le modèle classique de monétisation d'un nom consistait à enregistrer le domaine pour le revendre plus cher ensuite, une pratique largement marginale par rapport à la spéculation sur les noms que nous connaissons aujourd'hui.

Cet héritage nous vient du début des années 90, lorsque différents acteurs commencèrent à accumuler un grand nombre de domaines dans l'attente de les revendre. La question leur vint alors naturellement : que faire de ces domaines entre-temps ?

Certains noms génériques ont une valeur simplement en fournissant des liens vers des sites marchands qui vendent des produits associés à ces noms et grâce au trafic qu'ils envoient vers ces sites.

L'une des approches consiste à dire que ces pages Web truffées de liens sponsorisés sont sans contenu réel, pour autant l'internaute y trouve des liens pertinents le renvoyant vers des vendeurs de produits qui l'intéressent. On appelle ce type de publicité au coût par clic (payé par l'annonceur). C'est de là que vient le phénomène des enchères sur les mots clés, dont la valeur peut être déterminée dans une fourchette allant de quelques centimes à 50 $ pour un terme comme « mésothéliome », sur lequel, contrairement à ce qu'on pourrait croire, ce ne sont pas les médecins mais les avocats qui enchérissent le plus !
Selon Roberto Gaetano, du comité ALAC de l'ICANN :
...il est vrai que le manque de règles de base et l'absence de clarté au niveau des règles existantes permettent l'émergence de ce type de détournements. Nous sommes dans une situation proche du Far-West (a kind of a wild west situation). Raison pour laquelle, parmi les tentatives de mise en ordre, nous regardons avec un certain intérêt la proposition ainsi nommée de la « longue traîne »...

Quant à la distinction faite entre les sites Web avec du contenu et les sites sans contenu, du point de vue de l'utilisateur je ne pense pas qu'il y ait des sites avec contenu et des sites sans ; en revanche il y a des sites qui fournissent des services et des sites qui n'en fournissent aucun. Toujours du point de vue de l'utilisateur, la chose la plus importante est de trouver ce que l'on cherche en effectuant le moins de clics possible. Donc le problème n'est pas que l'on ait des sites vides ou pleins de contenu, mais de savoir si ces sites fournissent des services et donnent des informations utiles (quand bien même ils redirigent vers un site où se trouve l'information que recherche l'utilisateur).
Mme Sarah Deutsch aborde le problème du typosquatting et de la déclinaison d'une centaine de noms typosquattés (variations orthographiques de Verizon) détenus par eNom (ce dont se défend Paul Stahura...), en faisant un parallèle avec l'affaire Dotster. Elle conclut en soulignant le rôle que pourrait tenir l'ICANN dans cette affaire, notamment aux termes du chapitre dédié aux Obligations générales du Registreur de la convention d'accréditation passée entre l'ICANN et les registreurs (RAA - REGISTRAR ACCREDITATION AGREEMENT, II.D.ii: prohibitions on warehousing of or speculation in domain names by registrars).

Pat Kane, de VeriSign, commence en disant que les chiffres qu'il fournira sont approximatifs du fait que les registreurs ont des lignes de crédit ouvertes chez Verisign... Et de continuer en soulignant qu'originellement le système n'a pas été conçu pour traiter 1,7 million d'enregistrements par jour ! Donc en mettant sur un plateau de la balance les 6 $ encaissés par nom de domaine, et sur l'autre les coûts indispensables pour supporter et mettre à jour l'infrastructure matérielle énorme nécessaire pour traiter quotidiennement cette masse d'opérations, nous n'avons pas encore analysé si nous gagnons ou si nous perdons de l'argent.
(...)
Sur ce que Verisign nomme l'add storming (l'assaut des ajouts), Kane rappelle que chaque jour ce sont grosso modo 120 millions de demandes d'ajouts qui arrivent pour tenter de s'accaparer les domaines arrivant à expiration, la plupart de ces demandes ayant lieu entre 13h30' et 15h30'. La raison en est que les registreurs ont analysé notre programme d'effacement, en estimant combien nous pouvions en traiter par minute et en analysant ce qui se passait durant ces 60 secondes ! Donc au lieu de transmettre une seule demande, ils les envoient par paquets sans vraiment attendre la réponse individuelle à chacune, juste pour essayer d'arriver avant les autres.
Sur tous les noms effacés journellement, nous avons en moyenne 2,276 tentatives de réenregistrement par nom, et 99,9 % des domaines effacés qui sont immédiatement réenregistrés.

À ce propos, John Berryhill remarque que Verisign ne se prononce pas sur le domain kiting et observe d'un ton caustique que la société semble incapable de déterminer si elle en retire un profit ou non... Par conséquent, le problème de savoir si le détournement du délai de grâce est un abus ne se pose pas, du moment que les différentes clauses contractuelles sont respectées... (Pragmatique !)

Jothan Frakes interrompt la discussion en cours pour donner des statistiques sur le phénomène, rapportées au mois de mai 2006 (du 1er au 31) aux .COM et .NET. Durant cette période :
  • 616 registreurs ont ajouté des domaines au système (selon Steve Crocker, présent dans l'assemblée, seuls un tiers sont de véritables compagnies, les autres ayant été créées uniquement dans le but d'avoir accès au système pour l'exploiter) ;
  • sur l'ensemble, 502 registreurs ont profité du délai de grâce, soit 81 % ;
  • chez 322 registreurs, le taux d'effacement a été supérieur à 5 % ;
  • 87 enregistreurs ont enregistré le même nom de domaine plus d'une fois, avec au total un résultat brut de 5,2 millions d'ajouts dans le système ;
  • en tout, ce sont 30 millions de noms uniques qui ont été ajoutés au mois de mai, dont 38 600 domaines ont été enregistrés - effacés - réenregistrés six fois ou plus ;
  • 55 registreurs ont enregistré des noms avec un taux d'enregistrement dépassant un seuil spécifique :
    1. 17 avec un taux d'effacement inférieur à 1,3 % ;
    2. 29 avec un taux supérieur à 97 % ;
    3. 18 représentent plus de 98,1 % de l'ensemble des opérations ;
  • Et je pense que ces chiffres sont fiables (And I believe these numbers to be accurate.)
Tim Ruiz, de Go Daddy, donne aussi l'exemple des requêtes interceptées (vous cherchez un nom disponible, vous en trouvez un, et pour peu que vous ne l'enregistriez pas de suite, lorsque vous réessayez plus tard, le domaine n'est plus disponible, quelqu'un, quelque part, ayant intercepté votre requête et l'ayant enregistré dans les secondes suivantes au profit d'un registreur). Selon lui, « tout le monde le sait, vous le savez, nous le savons, l'ICANN le sait » (... [registrars] know it, you know it, we all know it, ICANN knows it.), et il serait temps de demander une intervention du gouvernement américain. « Cela va trop loin et dure depuis trop longtemps » (This has gone too long and too far)...

Rob Hall, de Momentous, maison mère de Pool.com, leader mondial du second marché des noms de domaine (espèce de Bourse aux domaines), précise :
Tout d'abord l'ICANN n'a pas instauré le délai de grâce, ça existe depuis une dizaine d'années, et aujourd'hui l'ICANN est chargé de gérer le système, qui est devenu extrêmement sophistiqué. Or les méthodes utilisées pour l'exploiter sont très créatives et conduisent à de nouveaux business models. De même que la compétition porte à l'innovation.

Concernant la taille réelle de ce marché, nous avons vu qu'en gros il y a 18 registreurs impliqués dans ces pratiques. S'agissant d'un nombre plutôt restreint, mon opinion est qu'il va vite y avoir une autorégulation du phénomène. Ceci étant, il est clair que la demande existe pour ce type de marché et d'activité. J'ai entendu parmi les participants des termes tels qu'abus, détournement, vol, fraude
(kiting), or la fraude est un délit. D'après moi l'emploi d'un tel vocabulaire n'est bon qu'à enflammer les esprits, là où il faudrait au contraire présenter les choses différemment et éduquer la communauté...
Jon Nevett, de Network Solutions, reconnaît que certains signes témoignent clairement que l'exploitation du système a des conséquences inattendues que personne n'avait prévues. David Maher, de PIR, Registre du .ORG, renchérit :
...Certains registreurs enregistrent littéralement des millions de domaines par mois ou par semaine, avec des taux d'effacement qui atteignent 99 %, ce qui représente une charge technique phénoménale pour notre système, alors que nous desservons essentiellement la communauté non commerciale. Or la tendance va croissant, pour des noms qui finissent par être exploités à des fins antisociales... Nous aussi avons prévu de mettre rapidement en place un programme d'éducation et de sensibilisation.
[Début]
* * *

Les noms de domaine et la longue traîne

Nous en arrivons au point d'orgue de cette session, la proposition du modèle de la longue traîne présentée par Paul Stahura (eNom). (À noter que ce modèle a été mis au point depuis plus d'un an, puisqu'un premier livre blanc date de juin 2005, et qu'une deuxième ébauche a été présentée en avril dernier. Cette dernière version introduit la notion de « torso »).

Le modèle est illustré sur le graphique suivant :


où vous avez à gauche un large front (fat front), qui correspond aux noms de domaine déjà enregistrés, avec à droite un tronc (torso) et une longue traîne (long tail) pour les domaines non enregistrés.

En fait, il s'agit d'une nouvelle catégorie de noms de domaine.

À gauche du graphique, vous avez les domaines qui ont le plus de valeur, et à droite ceux qui en ont le moins, avec entre les deux (entre A et B) une zone que nous appellerons le tronc, correspondant aux noms qui ne sont pas enregistrés mais dont la valeur dépasse six dollars (prix payé à Verisign pour chaque nom de domaine en .COM ou .NET - NdT). Quant à la valeur des domaines dans la partie droite de la longue traîne, c'est celle qui peut être déterminée par leur capacité de monétisation au coût par clic.

Donc notre proposition consiste à créer une nouvelle classe de noms de domaine, ayant les critères suivants :


Les domaines actuels correspondent à la classe I, et ils ont les caractéristiques que nous leur connaissons tous aujourd'hui. Les domaines de classe II sont des domaines d'un nouveau genre, pour lesquels le délai de grâce ne serait plus de 5 jours mais pourrait aller jusqu'à 365 jours, ce qui veut dire que si vous effacez un domaine pendant cette période vous êtes remboursé.

En théorie, ces nouveaux domaines ne sont associés à aucun serveur de noms (donc, pas de possibilité de les assigner à un serveur de son choix), mais uniquement à des serveurs spécifiques auxquels ils sont assignés par défaut par le Registre. L'inscription au WhoIs est également requise pour ces noms, avec un enregistreur clairement identifié : le registreur. Pour autant dès qu'un autre sujet les enregistre, à n'importe quel moment, ils passent automatiquement en classe I, en prenant ainsi toutes les caractéristiques afférentes aux noms de cette classe.

Maintenant, pour ce qui concerne le partage des revenus, ils peuvent être stationnés sur une page parking fournie par le Registre. Les flux économiques associés à la monétisation qui viennent de Yahoo, Google ou autres seraient ainsi répartis : 55 % pour le Registre, 5 % pour l'ICANN et 45 % pour le Registreur. De plus, en centralisant tous ces domaines sur un seul site, cela permettrait d'en soigner particulièrement la qualité, différents Registres pouvant également avoir différents sites de recherche.

Par conséquent, si le problème est celui du domain tasting, ou du domain kiting, ces nouveaux noms de domaine pourraient être la solution, puisque, de fait, vous n'avez plus besoin de tester les domaines de classe II. [Début]

* * *

Brève conclusion

Voilà. Une dernière remarque : selon Chuck Gomes, de Verisign, la société serait sur le point d'introduire sa nouvelle politique contractuelle en matière de services du Registre (the new registry service policy for introducing new registry services is completed, ... and it is close). Bruce Tonkin rapporte de même que l'Organisme de l'ICANN en charge des noms génériques (GNSO) est en train de développer une nouvelle approche contractuelle avec les Registres (a policy for registries to request a change to their contracts to allow changes in the operation of the registry). Donc nous verrons bien la tournure que prendront les choses, et si ce modèle de longue traîne apporte enfin une réponse que Bob Parsons appelle de tous ses vœux depuis des mois.

Il y aurait encore beaucoup à traduire et à dire, mais cela demande du temps et je n'en ai plus. J'ai commencé un gros projet de traduction qui va m'occuper tout le mois, donc le rythme de publication des billets va forcément ralentir. Toutefois, j'ai ressenti l'urgence d'évoquer l'apparition éventuelle de ces domaines d'un nouveau type, car je n'en ai trouvé aucune trace sur le Web francophone (mais je ne demande qu'à être démenti), même si le premier document qui traite du sujet remonte à juin ... 2005 ! [Début]
À +



Tags : , , , , , , , , , , , , , , , , , , ,