mercredi 14 janvier 2009

Blogueurs et journalistes, même combat : celui de l'info !

Aliocha m'énerve :
Et le rapport avec les blogs et Internet me direz-vous ? Il est ici : prenez garde à ce que vous lisez sur Internet. Sous prétexte de faire de la contre-information et de résister à l’intoxication des médias ou encore à la pensée unique, quelques petits malins qui croient plus ou moins à ce qu’ils disent jouent sur la corde de la “vérité vraie” pour soutenir des théories fumeuses, voire de franches énormités. Pensez donc à évaluer les sources : qui vous parle, quelle est sa légitimité à s’exprimer sur un sujet, les propos tenus sont-ils cohérents, vérifiables, contiennent-ils des références ? Ces références sont-elles utilisées objectivement ou détournées de leur sens ? Voilà quelques réflexes journalistiques de base à mon avis utiles pour s’informer sur le web en évitant l’intoxication. Mais, me direz-vous, voilà qui milite pour la pensée officielle ! Du tout. Personne ne vous empêche de penser différemment, le tout est de de partir d’une base factuellement exacte, c’est pour cela qu’on nous impose à nous journalistes de vous présenter les faits d’actualité le plus objectivement possible et qu’on nous oblige à distinguer clairement les faits de l’analyse. Or, c’est souvent le contraire qu’on vous propose sur les blogs, à savoir des opinions plus ou moins séduisantes sur la base de faits approximatifs, non vérifiables, voire carrément inexistants (avec des exceptions remarquables comme Eolas ou Autheuil par exemple).
Voudriez-vous un autre son de cloche : « Or, c’est souvent le contraire qu’on vous propose sur les journaux, à savoir des opinions plus ou moins séduisantes sur la base de faits approximatifs, non vérifiables, voire carrément inexistants (avec des exceptions remarquables...). »

Bon, et maintenant ? Maintenant que toi t'as dit noir et moi j'ai dit blanc, on fait quoi ? Ce furieux acharnement à vouloir opposer à tout prix blogueurs et journalistes ne mène nulle part ! Il est stérile. Faux. Partial. Borné. J'en passe et des meilleurs (à toutes fins utiles, s'il venait à l'imagination de qui que ce soit de prétendre que je fais de même, je demanderais d'ores et déjà à cette ou ces personnes d'éviter de lancer des paroles en l'air et d'étayer leurs dires d'après mes écrits. Qu'ils aillent chercher dans les billets où je parle du journalisme et de la presse où, et pourquoi, j'oppose éventuellement blogueurs et journalistes. Après on en reparlera...).

Or donc, me direz-vous, pourquoi t'en prendre à la douce et tendre Aliocha ? Parce qu'elle est journaliste ? Non point. Parce qu'elle est femme ? Encore moins. Mais alors, pourquoi donc ?

Parce qu'elle insiste lourdement sans pour autant répondre aux arguments. Elle parle, elle parle, elle accuse à tout-va, elle lit suppression là ou vous écrivez évolution et adaptation, mais s'abstient de répliquer en fondant son argumentaire sur des faits, dont elle invoque pourtant l'impérieuse nécessité.

Voilà pourquoi je m'en prends à Aliocha : parce que sa qualité de journaliste est démentie par les faits, tout au moins sur son blog : car dire « Comprenons-nous bien, je ne qualifie pas de faux ce qui heurte mes convictions, mais bien des erreurs factuelles ou de raisonnement graves, sans compter la mauvaise foi dont certains font preuve dans leurs écrits et qui aboutit à une présentation tronquée de la réalité destinée à servir leurs intérêts ou convictions. » en faisant elle-même très exactement le contraire de ce qu'elle professe, c'est dire ce que je dis, mais faire le contraire de ce que je dis.

Ô douce et tendre Aliocha, les faits, "matière des opinions", ce n'est pas de prendre 100 ou 1000 blogueurs en démont(r)ant une par une les âneries qu'ils peuvent raconter sur leur blog (n'importe qui pourrait en faire autant avec les journalistes), ce serait plutôt de constater que la presse va mal et qu'il faut réagir, d'un côté, et que les blogs sont aujourd'hui partie prenante du paysage de l'information, que ça plaise ou non aux journalistes et aux élites, de l'autre. Voilà un fait. Irréfutable. Or ce qui est devant les yeux de tous, c'est qu'une grande partie de votre profession et des décideurs en tout genre ne font rien d'autre que de nier l'indéniable !

Il est quand même curieux que les blogueurs soient presque totalement mis à l'écart - je ne dis pas oubliés, car ils ne le sont pas, loin de là, mais délibérément mis à l'écart - des courants et rapports officiels en tous genres. Il suffit d'observer le dernier en date, à savoir le livre vert dont viennent d'accoucher les États Généraux de la Presse, qui ne mentionne en tout et pour tout que 5 fois le mot "blog" et ses déclinaisons dans ses 68 pages :
  • 2 fois en note page 41 :
    - la communauté des blogs LeMonde.fr, lancée à l’automne 2005 sur une initiative ouverte aux seuls abonnés du site. Les 6 300 blogueurs liés au site postent plus de 800 billets par jour, qui eux-mêmes génèrent plus de 2 000 commentaires au quotidien.
  • 2 fois en pages 49 et 57 :
    - Afin de nourrir leurs préconisations, les participants ont écouté le rendu d’études ... et d’une expérience de nouveaux media (le Bondy Blog) (Hanane KADDOUR, Bondy Blog).
  • 1 fois page 55 :
    Dans les Recommandations du sous-pôle « Contenu »
    *Pour améliorer la recherche d’informations :
    (...)
    • Dans le but d’améliorer le statut des correspondants locaux et des bloggeurs travaillant pour des sites d’information, il est demandé d’étudier dans quelle mesure le statut d’auto-entrepreneur pourrait être proposé aux fournisseurs de contenus non journalistes.
À noter que dans le même document, ils sont même pas foutus d'orthographier "blogueurs" de la même manière d'une page sur l'autre...

Un peu léger pour un pays qui se classe au premier rang mondial en nombre de blogs par internaute, non ?

Ce que nous y apprenons sur les blogs est pourtant riche en enseignements : les blogs font partie des nouveaux médias (mais ça, on aurait déjà pu le deviner...), et les blogueurs sont classés parmi les « fournisseurs de contenus non journalistes ». Dans mon cas, ce serait plutôt le contraire (vu que souvent c'est ce que disent - ou ne disent pas - et font - ou ne font pas - les journalistes qui nourrit ma réflexion), mais on va pas chipoter...

Nous en savons en effet à peu près autant qu'à la lecture du rapport Giazzi sur la question, c'est-à-dire pas grand chose. Mais qu'Aliocha et ses consœurs et confrères se rassurent, ce n'est pas encore aujourd'hui qu'on va mélanger les torchons et les serviettes.

Vous voulez mon avis ? C'est de la merde, tout ça. La presse traditionnelle et le journalisme n'ont plus le monopole de l'information. Ils l'ont eu, pendant longtemps, trop longtemps, mais ne l'auront plus jamais. Fini. Époque révolue. Qu'on se le dise. Que les éditeurs et les gouvernants se le disent. Et d'ailleurs ils le savent. Ils ne le savent que trop bien. Même s'ils déploient tous leurs efforts, leurs moyens, leurs réseaux et leur puissance (et ils en ont...) pour dire le contraire. Dissimuler à tout prix et faire semblant de rien.

Les blogs ? C'est quoi, ça ? Un repaire de « petits malins qui croient plus ou moins à ce qu’ils disent jouent sur la corde de la “vérité vraie” pour soutenir des théories fumeuses, voire de franches énormités » !

Ah ! J'applaudis des deux mains Aliocha, en voilà de l'analyse. C'est pertinent. Factuel. Déontologique. Responsable. Digne d'une journaliste chevronnée qui vérifie ses sources pour être « en mesure d’apprécier l’information avec un esprit critique ». Mais qui à l'occasion oublie de répondre à ceux qui lui opposent des raisonnements argumentés, en se disant peut-être "don't feed the troll". Un peu comme votre ami Eolas, qui a souvent raison, mais parfois tort, aussi. Et quand il a tort, il évite de le souligner... Et préfère s'en tirer par une pirouette sous les applaudissements de sa -basse- cour.

Donc si vous ne voulez pas me répondre, grand bien vous fasse. Personnellement, je m'en tape. Par contre, si vous avez du respect pour vos lecteurs, alors prenez votre plume et défendez vos arguments par des faits. Vous devriez connaître, non, c'est votre métier, paraît-il.

Une petite piqûre de rappel sur ce que sont les faits ? Oh, et puis non, tiens, j'ai assez perdu de temps comme ça.

Mais si toute votre réplique tient à prétendre démontrer que les blogueurs aiment taper sur la presse parce qu'ils ont des velléités de protagonisme, alors c'est que vous n'avez rien compris. Aucune démocratie digne de ce nom ne peut se passer d'un journalisme militant, compétent, sérieux, honnête. Est-ce votre cas ? À vous la réponse...

Pour avoir dérogé à ce principe de base, l'Italie n'a plus de démocratie que le nom, mais certainement pas dans les faits. La forme sans le fond. Des mots, mais vides de sens. Je le répète :
si les journaux et les journalistes qui les font disparaissent, cela ne signifiera jamais que les blogueurs auront gagné, mais que « tout le monde sera perdant ». Triste, non ?
Alors, pour moi, blogueurs et journalistes, même combat : celui de l'info !

C'est sur le terrain de l'info - et de la crédibilité de l'info - que blogueurs et journalistes doivent s'affronter, si affrontement il doit y avoir. Sinon je ne vois que des complémentarités. Le reste ? C'est de la merde. Je persiste et je signe.


Partager sur Facebook

P.S. À la relecture de mon billet, je m'aperçois que j'ai écrit :
Aucune démocratie digne de ce nom ne peut se passer d'un journalisme militant, compétent, sérieux, honnête.
là où j'aurais dû écrire :
Aucune démocratie digne de ce nom ne peut se passer d'une information militante, compétente, sérieuse, honnête.
Mais n'est-ce pas là tout l'objet de ce billet ? Car au fond, qu'importe que l'on donne le nom de journaliste, de blogueur ou de machin-truc-chouette à qui produit l'information, dès lors que cette information réunirait les qualités à peine mentionnées...

, , , , , , , , , , , ,

lundi 12 janvier 2009

Les temps changent, et ça continue !

Les temps changent, et ça continue !

En juin 2007, j'adaptais un tube de YouTube, dont différentes versions ont été vues des millions de fois dans plusieurs langues, Did You Know? Shift happens, avec l'autorisation de son auteur, Karl Fisch, qui m'encourageait à « utiliser/modifier/ traduire la présentation à mon gré, tout ce que je jugeais bon pour continuer à alimenter la conversation » :
You're welcome to use/modify/translate the presentation however you'd like - anything to help get those conversations started.
La présentation originale date un peu, or je viens de découvrir une version Did You Know 3.0, présentée en 2008 à ... Rome !



On peut y lire, entre autres :
MySpace a plus de 200 millions d'utilisateurs enregistrés. Si MySpace était un pays, ce serait le 5e pays le plus peuplé du monde (entre l'Indonésie et le Brésil).

Lors de mon adaptation, cette statistique était la suivante :
Il y avait plus de 106 millions d'utilisateurs enregistrés sur MySpace en septembre 2006. Si MySpace était un pays, ce serait le 11e pays le plus peuplé du monde (entre le Japon et Mexico).

MySpace a donc gagné pratiquement 95 millions d'utilisateurs supplémentaires en un peu plus de deux ans.

Or Facebook a réalisé un gain équivalent en très exactement un an, moitié moins ! De 55 millions en janvier 2008 (une époque où Facebook semblait stagner...) à 150 millions il y a ... 5 jours, puisque Zuckerberg vient d'annoncer sur son blog que le cap a été franchi :
If Facebook were a country, it would be the eighth most populated in the world, just ahead of Japan, Russia and Nigeria.

Si Facebook était un pays, ce serait le 8e pays le plus peuplé du monde (devant le Japon, la Russie et le Nigeria).
Une prévision déjà anticipée par Jamsbrain en octobre 2007 !

Or ils étaient à 140 il y a un mois à peine ! Dont 20 millions sur mobile...

Toujours plus, toujours plus loin, toujours plus vite, nous vivons bien en des temps exponentiels...

Pour mémoire :

Les temps changent, le saviez-vous ?...
Les chiffres en disent parfois plus long que les mots.





Partager sur Facebook

P.S. Par la suite, nous avions convenu avec Karl Fisch que j'aurais développé une page Wiki sur les versions localisées, je n'ai jamais pris le temps de le faire. Mais si vous connaissez des traductions/adaptations dans d'autres langues, merci de me les signaler en commentaire, ça me donnerait probablement la juste impulsion pour réaliser cette page !

, , , , , , , , , , , , ,

samedi 10 janvier 2009

ICANN : quand les nouvelles extensions génériques de premier niveau (gTLDs) verront-elles le jour ?



Deuxième partie qui fait suite au précédent billet Gouvernement des États-Unis contre l'ICANN.

Introduction
Registres ouverts vs. Registres fermés…
Conclusion

* * *

Introduction

L'ICANN vient de publier une mise à jour sur les commentaires reçus, en faisant ressortir quatre points soulevés par les commentateurs :
  1. les problèmes de protection des marques et l'impact des nouvelles extensions pour leurs propriétaires
  2. les problèmes économiques liés aux coûts prévisibles
  3. les problèmes concernant les nouveaux accords de registre (voir le commentaire de la NTIA)
  4. les problèmes plus généraux relatifs à l'expansion de l'espace des extensions génériques, susceptibles d'impacter le marché global ou des industries en particulier, ainsi que la stabilité du DNS (Domain Name System).
M. Levins en conclut :
Il ne fait aucun doute que nous devons aborder ces problèmes légitimes et d'autres avant d'ouvrir le processus de dépôt des dossiers.
J'aime bien le "et d'autres"...

Car même si certains observent justement que le petit jeu NTIA - ICANN n'a que trop duré, tant qu'on ne sait pas comment la nouvelle administration Obama affrontera le problème, difficile de prévoir quelle tournure prendra l'éventuelle prorogation/renégociation de l’Accord conjoint de projet (Joint Project Agreement) signé avec le DoC, qui arrive à échéance en septembre 2009...

Ceci dit, l'ICANN promet une réponse détaillée sur (tous) ces points début février. Nous verrons.

En attendant, le problème qui nous intéresse plus immédiatement est de savoir si de nouvelles extensions verront le jour, et si oui, quand. Le "si" ne faisant pas de doute, reste à savoir le "quand", impossible à prévoir, mais sûrement pas dans les délais initialement prévus par l'ICANN...

Donc lorsque la municipalité de Paris négocie pour commercialiser son .paris en 2010, cela me semble plutôt prématuré, hors le fait que les extensions géographiques contestent déjà les prix trop élevés prévus par l'ICANN. Voir ici quelques commentaires sur la rentabilisation du .paris...

Pour autant, les problématiques sont différentes selon que ces nouvelles extensions seront imputables à des registres ouverts ou fermés. [Début]

* * *

Registres ouverts vs. Registres fermés…

L'opposition traditionnelle entre registres ouverts et fermés pouvait se résumer comme suit : les registres ouverts acceptaient l'enregistrement de tous les déposants, les registres fermés posaient des conditions à l'obtention d'un domaine, comme l'AFNIC, par exemple. C'est ainsi que même en étant français, je n'ai jamais pu enregistrer un .fr car ne pouvant justifier d'un domicile en France ! Comme si le degré d'ouverture d'un registre allait de pair avec son niveau d'ouverture d'esprit...

Une opposition désormais dépassée, et plus encore dans la perspective des nouvelles extensions. Où la distinction que je fais entre registres ouverts et fermés serait la suivante :
  1. Les registres ouverts seraient les extensions génériques (.sport, .hotel, .kids, etc.), y compris communautaires et donc géographiques, qui ont vocation à proposer une multitude de noms de domaine à l'enregistrement.
  2. Les registres fermés seraient essentiellement les extensions d'entreprises (corporate ou Brand TLDs), de communautés industrielles (.car, .pharma, .sport, .bank, .hotel, etc.) ou d'organisations (pourquoi pas un .un pour l'ONU ?), qui auraient vocation à exploiter ces domaines uniquement pour promouvoir leurs services et/ou filiales et/ou membres et/ou marques. Elles ne seraient donc enregistrables que par les ayant-droits, mais en aucun cas par l'internaute lambda.
Cela revient à dire qu’à un registre fermé donné devrait correspondre « un seul domaine » (l'extension), dont les sous-domaines seraient uniquement utilisés à des fins internes : par exemple, il n’y aurait qu’un seul « registre fermé » en charge du « .google », qui pourrait avoir une infinité de sous-domaines : maps.google / gmail.google / picasa.google, etc.

Ceci dit, quel serait l’avantage par rapport à l’actuel .com ? Bof !

Resterait ensuite à définir au cas par cas (par un Comité d'évaluation des candidatures, par exemple) si une extension .sport ou .hotel est ouverte ou fermée, selon la règle du premier arrivé, premier servi qui caractérise les enregistrements Internet depuis le début. Puisqu'en outre il est à prévoir que nombre de sociétés ayant déposé des marques contenant "hotel" ou "sport" tenteraient de les faire valoir...

En revanche la distinction faite par l'ICANN n'est pas au niveau des registres mais des extensions, définies extensions communautaires (“community-based”) ou extensions ouvertes (“open”). En fourrant les entreprises dans les extensions ouvertes, chose qui est selon moi un parfait contre-sens.

Certes, la distinction est loin d'être évidente, mais pour les entreprises - qui sont probablement le premier marché cible visé par l'ICANN avec ces nouvelles extensions - le principal problème est que cette nouvelle extension s’ajouterait seulement au .com et aux autres au lieu de s’y substituer

Or un avantage véritablement décisif du « registre fermé » par rapport à la formule actuelle serait que l’attribution du .google par l’ICANN interdirait de facto l’attribution d’un google.TLD quelconque en vertu des accords bilatéraux signés entre les registres et l’ICANN !

Ce serait également un moyen radical de résoudre tous les problèmes liés au cybersquatting, et même, pour aller plus loin dans le raisonnement, on pourrait aussi envisager d’associer au .google (et à tous les autres ayant ce statut) toute une série de typos réservés, ce qui balaierait d’un coup la plupart des problèmes liés au typosquatting…

D'autant plus qu'aujourd'hui, calculer tous les typos d'un nom ne prend guère plus que quelques secondes. Du reste, Google et les autres moteurs les ont déjà en mémoire !


Car il est évident qu'avec des centaines d'extensions à présent, et demain peut-être quelques milliers, on va pas quand même obliger les marques à faire des dépôts préventifs dans toutes les extensions, alors même que la protection de la marque et du nom de domaine sont des enjeux stratégiques pour les entreprises !

Déjà que dans près de 90% des cas elles se protègent comme elles peuvent pour les extensions .COM, .NET et .ORG, y compris pour les typos (voir le premier commentaire de ce billet), et parfois pour les IDN, ce serait totalement irréaliste de les obliger à dépenser des millions d'euros en plus ! [Début]

* * *

Conclusion

Voilà donc un contre-sens encore plus gros que le premier (comme je l'ai déjà dit, il faudrait offrir aux marques une nouvelle extension qui ne s'ajoute pas à toutes les autres, mais qui les remplace !), également relevé entre les lignes de l’avis de la Division Antitrust, qui observe :
Les déposants prennent fréquemment des domaines dans des extensions autres que le .com non pas pour les substituer au .com mais comme compléments aux domaines en .com. En d’autres mots, les déposants d’un domaine donné en .com (par ex. google.com) ressentent souvent la nécessité d’enregistrer le même nom de domaine dans la plupart des extensions disponibles (par ex. google.info, google.biz) parce qu’ils souhaitent à la fois étendre leur présence sur Internet et protéger leurs marques en empêchant qu’elles puissent être exploitées par d’autres.
Et de préciser :
Au final, notre analyse de l’accord avec Verisign sur le .com a mis en évidence que d’autres opérateurs de registre pourraient détenir un positionnement sur le marché qui serait quoi qu’il en soit significatif, quand bien même moins important que celui de Verisign.
D'où l'importance de fixer des limites claires à la distinction registres ouverts vs. registres fermés, tout au moins pour éviter de ressortir et valider le concept de prix à la carte en fonction des registres, même s'il est évident qu'il pourrait y avoir des conditions différenciées.

Par conséquent, en insistant fortement sur les questions concurrentielles, la Division Antitrust fait les préconisations suivantes :
Les mécanismes d’appels d’offres mis en place par l’ICANN devraient expressément :

1. prévoir des offres spécifiant le prix initial maximum facturé par l’opérateur pour l’enregistrement des domaines, de même que les limitations des augmentations tarifaires dans le temps ;

2. encourager la performance en demandant aux soumissionnaires de proposer des spécifications et des niveaux de service dépassant les standards minima fixés par l’ICANN ;

3. solliciter d’autres propositions à l’avantage des consommateurs, telles que l’engagement de l’opérateur de ne pas pratiquer de prix discriminatoires entre les déposants (pour éviter de prendre en otage -
"to hold up" - les déposants ayant déjà investi dans leurs noms de domaine), ou encore de ne pas inclure l’achat de services groupés comme condition de l’enregistrement (pour limiter le contournement des prix plafonnés) ;

toutes ces conditions devraient être mentionnées noir sur blanc dans les accords de registre pour que l’ICANN soit en mesure de les faire appliquer.

En outre, bien que les mécanismes d’appels d’offres soient le meilleur moyen de stimuler la compétition dans de nombreux cas, ils ne sont pas toujours efficaces. Et vu que le nouvel accord de registre proposé ne prévoit aucune des mesures de sauvegarde prévues au chapitre 7.3 de l’accord passé avec Verisign sur le .com ou dans les accords existants avec d’autres registres, l’ICANN devrait revoir sa proposition d’accord de registre (prix plafonds et augmentations limitées d’une année sur l’autre), tout au moins pour les cas où il n’y aurait pas d’appel d’offres compétitif pour gérer une nouvelle extension, afin d’englober des mesures et des mécanismes tels que précisés aux points 1, 2 et 3 ci-dessus. En dernier lieu, il serait préférable de prévoir des accords de long terme (l’enregistrement peut valoir jusqu’à 10 ans dans l’accord du .com).
Et de conclure ainsi :
À ce jour, nous pensons que l’ICANN est loin d’avoir rempli ses obligations de faire levier sur les principes concurrentiels pour gérer les opérations avec les registres des extensions génériques de premier niveau.
Pour finir, compte tenu de tout ce qui vient d'être exposé, dans ce billet et dans le précédent, je ne vois pas comment l'ICANN pourrait ouvrir les nouvelles extensions dans les délais prévus sans d'abord revoir sa copie ! [Début]



Partager sur Facebook

P.S. Je m'étonne d'ailleurs que certains beaucoup de médias traditionnels (mais pas seulement...) relatent l'info du dépôt de candidature par la municipalité de Paris en février 2009, en donnant quasiment pour acquise l'obtention du nom (la ville devrait remettre un dossier final le 30 septembre 2009 et obtenir son nom de domaine dès le premier trimestre 2010), « (à) condition toutefois qu'elle trouve un accord sur les prix avec l'Icann ». Comme si c'était la seule condition...

, , , , , ,

vendredi 9 janvier 2009

Google : la longue traîne des annonceurs

Titre emprunté à Peter Kafka, qui nous explique qu'en 2007 Google a perçu en moyenne 16 000 $ par annonceur, pour 1 million d'annonceurs ! Avec la progression suivante :


Légende : 89 000 en 2003, 201 000 en 2004, 360 000 en 2005, 600 000 en 2006 et 1 million en 2007. On connaît pas encore 2008, mais j'imagine que la progression sera proportionnelle exponentielle (voir en commentaire).

Il serait vraiment temps d'inverser la traîne...



Partager sur Facebook

, , , , , , , , , , ,

jeudi 8 janvier 2009

Noms de domaine et parking : Parking 2.0 vs. Parking 1.0

Noms de domaine et parking : Parking 2.0 vs. Parking 1.0

Parking 1.0 : déclin d'un modèle économique qui s'essouffle
Parking 2.0 : évolution du parking et nouveaux modèles économiques

* * *

Parking 1.0 : déclin d'un modèle économique qui s'essouffle

Il y a longtemps que je voulais faire un billet sur la nature et l'évolution du parking. En France, les gens ont tendance à liquider ça d'un revers de main, en criant bien haut et fort comme quoi c'est indécent, et ceci et cela. Et puis le parking c'est du cybersquatting, et du typosquatting, et du phishing, et ceci et cela.

Mais point de discussions véritablement sérieuses, à part sur Blogodomaines, mais c'est normal, me direz-vous, puisqu'il est partie prenante. Il n'empêche, ce n'est pas parce qu'on est partie prenante qu'on écrit forcément des choses intelligentes comme l'ami Rémy.

Qui nous fournit d'ailleurs une bonne illustration de comment fonctionnent actuellement le parking et le modèle économique qu'il y a derrière :


Un modèle économique aujourd'hui fortement en crise, nous allons voir pourquoi. Mais en tout état de cause, continuer à l'infini de faire l'impasse sur une réalité économique faite d'une vingtaine de millions de sites témoigne d'une absence totale de clairvoyance...

Tout d'abord je vais laisser de côté l'internaute et l'annonceur, même s'ils font clairement partie intégrante de l'écosystème "parking", pour me concentrer sur les trois types d'acteurs généralement impliqués :
  1. la régie publicitaire
  2. la plateforme de parking
  3. le titulaire du nom de domaine
1. La régie sert les pubs, c'est-à-dire qu'elle fournit les liens contextuels et/ou, plus rarement les bannières ;
2. la plateforme de parking héberge ces liens sur une page Web, vers laquelle pointe le nom de domaine ;
3. les titulaires de noms de domaine en parking ont un profil extrêmement segmenté, allant du simple particulier avec un seul ou quelques noms parqués, aux registrars du genre Moniker ou Fabulous & Co. qui peuvent gérer directement ou indirectement plusieurs millions de noms, en passant par des portefeuilles intermédiaires de quelques centaines à des milliers de noms, ou plus importants en quantité (Frank Schilling) (plus de 100 000 domaines) et/ou en valeur (Rick Schwartz) (+5 000, dont Candy.com, Properties.com, Tradeshows.com, Cheating.com, etc.).

Les registrars comme GoDaddy ou Domainsite (pour ne citer qu'eux) sont des cas à part, même s'ils ont en commun d'exploiter le parking en partenariat avec Google.

Or jusqu'à présent, la logique économique consistait essentiellement à cibler la pertinence des liens contextuels en fonction du nom de domaine et de son potentiel en navigation directe.

Mais bon, comme je l'expliquais ici, il n'y a qu'un seul nasa.com, ou meteo.com..., et par conséquent cette logique a trouvé ses limites, notamment à cause de la convergence de plusieurs facteurs :
  • la pratique de la navigation directe, dont les revenus étaient généralement estimés à 10-15% de l'ensemble des revenus générés par la recherche payante (chiffre encore à vérifier, si quelqu'un a des infos), est en perte de vitesse constante, au profit de la recherche directement dans les moteurs de recherche, un concept encore affiné avec la onebox de Chrome ;
  • la désaffection des internautes, de plus en plus las d'atterrir sur des pages poubelles truffées de liens publicitaires qui n'apportent désormais plus aucune valeur ajoutée à leur "expérience utilisateur" (sans parler des craintes implicites du genre : est-ce que je ne vais pas attraper un virus si je clique sur un de ces liens, etc.) ;
  • les grosses régies qui étaient les principaux pourvoyeurs de fonds des parkings - j'ai nommé Google et Yahoo! - changent lentement mais sûrement leur fusil d'épaule, Google en ouvrant à tous son programme AdSense for Domains, en rupture totale comme à son habitude, et Yahoo! en faisant n'importe quoi, comme à son habitude...
Résultat des courses : une baisse considérable des gains par clic (EPC - Earnings per click).

Quant aux prestataires de parking, comme l'explique Rémy, leur but ultime consistait à « agréger le plus de trafic possible pour pouvoir négocier des contrats plus intéressants avec les fournisseurs de liens publicitaires. Et ce pour pouvoir à (leur) tour offrir des taux de rémunérations toujours plus compétitifs à (leurs) clients. Et agréger encore plus de trafic (effet boule de neige) », voire à « se lancer eux-mêmes sur l’enregistrement et le rachat de noms de domaine pour s’assurer une taille critique ».

Donc maintenant que toutes les logiques qui ont assuré le succès de l'ère Parking 1.0 sont définitivement cassées, il serait peut-être temps de passer à l'ère Parking 2.0. Voyons comment. [Début]

* * *

Parking 2.0 : évolution du parking et nouveaux modèles économiques

La première réflexion est qu'une constante demeure entre les concepts de Parking 1.0 et Parking 2.0, à savoir que le parking reste un fort vecteur publicitaire, un formidable canal promotionnel pour peu qu'il soit ciblé et pertinent.

Les annonceurs et les régies ont accepté le parking tant qu'ils en jugeaient le trafic qualifié, traditionnellement avec des taux de conversion des pages parking jugés supérieurs à ceux des clics sur les moteurs de recherche (4,23% vs. 2,3%, selon une étude WebSideStory - Omniture aujourd'hui - qui a fait date).

Pour autant, le deuxième constat, c'est que l'ensemble de l'écosystème Parking 1.0 a été construit autour d'un grand absent : le CONTENU !

Or même si le parking est souvent une situation intermédiaire, qui permet de générer des revenus dans l'attente d'une revente, ça n'est pas une excuse pour faire n'importe quoi entre-temps. D'où la confusion de plus en plus justifiée entre les pages parking et les MFA (Made for Adsense), vu que pendant longtemps Google n'a pas vraiment fait grand chose pour corriger ses incohérences...

D'où également la connotation de plus en plus négative du parking, associé à du parasitage pur et simple par une grande partie du public francophone. L'approche des anglo-saxons est différente, comme souvent sur Internet, ce qui n'empêche que les internautes se retrouvant sur ces pages sont de moins en moins considérés "qualifiés" par les annonceurs, qui font également l'amalgame avec la fraude aux clics.

Une situation critique qui demande un renversement de tendance net. Comment ? En inversant la traîne, tout simplement, c'est-à-dire en passant de la longue traîne à la grande traîne de l'UGC :
  1. en insufflant du contenu dans le parking, et si possible du contenu pertinent, de qualité ;
  2. en rémunérant enfin les créateurs de ce contenu à travers un partage des revenus plus favorable.
Fini les vieux critères de partage, tout le monde y trouverait son compte. Des internautes aux annonceurs...

D'où une nouvelle définition du parking, qui m'a été soufflée par Jean-Philippe Hermand : crédibiliser les liens publicitaires par la pertinence du contenu.

On constate d'ailleurs un désir de diversification de plus en plus poussé chez des acteurs établis du parking, qui commencent à tourner autour de ces concepts, que ce soit celui de la pertinence via la sémantique (approche de SEDO qui investit dans Domainsbot), ou celui du contenu via le développement de véritables minisites (démarche de AEIOU, Kwikcontent, WhyPark ou Parking Revolution, entre autres).

Mon idée est différente. Pour moi, le bon mix consisterait à alimenter automatiquement les pages parking en flux RSS pertinents par rapport aux noms de domaine, sur le modèle Wikio de catégorisation thématique et de création de pages à la volée (ce que fait également fort bien Webjam).

Imaginez que chaque blogueur choisisse en opt-in que ses flux soient repris sur des parkings, naturellement contre un partage de revenus équitable entre les différentes composantes : la régie, l'agrégateur-distributeur de flux, les créateurs des contenus syndiqués et les titulaires des noms de domaine !

Coup double : une source de monétisation supplémentaire pour les créateurs de contenu d'une part, un flux ininterrompu d'UGC alimentant en automatique des pages parking complètement révolutionnées de l'autre.

Les spécialistes de l'AdSense pourraient objecter que si le contenu est trop pertinent, les internautes cliqueront moins sur les pubs. Soit. Mais de toutes façons, avec les formules actuelles, ils ne cliquent plus dessus de toute façon. À tel point que tout le monde - des annonceurs aux régies en passant par les utilisateurs - ne demande plus qu'une chose : de la qualité !

C'est le concept de smart pricing chez Google :
Ajoutez toujours plus de contenu pertinent à votre site et maintenez-le à jour afin de conserver l’intérêt de vos visiteurs. Si vos visiteurs sont intéressés par vos pages et qu’ils cliquent sur l’une de vos annonces, ils effectueront probablement une action sur le site de l’annonceur partenaire et votre taux de conversion s’en verra augmenter, de même que vos revenus. Du contenu de qualité se traduit souvent par une expérience positive pour vos visiteurs et vos annonceurs.
Donc s'il est vrai qu'il n'y a plus de qualité sans contenu pertinent fréquemment réactualisé, il est tout aussi vrai que personne n'a encore trouvé le moyen d'alimenter en temps réel des centaines de milliers - voire des millions - de sites parking en contenu de qualité.

Ce que pourrait assez facilement faire une plateforme comme Wikio, j'en ai déjà parlé avec Pierre Chappaz il y a plusieurs mois, mais il ne m'a pas semblé convaincu. D'où ma décision de partager mes idées avec la "communauté", juste pour tester le retour et collecter vos critiques et suggestions.

Au départ, me semble-t-il, c'était un peu l'idée de Blogbang, qui a pourtant réussi à casser dans la foulée une dynamique particulièrement porteuse, en merdant totalement le back-office après un démarrage en trombe. Dommage ! Et difficile à rattraper. Même si avoir Publicis derrière, ça peut aider...

Quant à cette (r)évolution des pages parking, il faut qu'elle n'ait pas seulement lieu sur le fond (le contenu), mais aussi sur la forme, en allant plus loin que la logique Google (depuis longtemps, et plus que jamais, dans le business...) :


En calquant la conception de ces pages sur le modèle des (r)évolutions qui attendent les traditionnelles pages de résultats, par exemple, encore « aujourd'hui TRÈS largement sous-exploitées, en termes de présence optimisée :
  • par les images
  • par les vidéos
  • par les cartographies
  • par les médias sociaux
  • par les widgets
  • multiforme et multiformats (blogs, sites, pages de réseaux sociaux, sites de partages de favoris, de documents...)
  • par la publicité
Etc.
»

Mais ce sera un autre débat ... dont j'espère qu'il aura lieu ! [Début]



Partager sur Facebook

, , , , , , , , , , , , , , , ,

mercredi 7 janvier 2009

Gouvernement des Etats-Unis vs. ICANN

Quand les nouvelles extensions génériques de premier niveau (gTLDs) verront-elles le jour ?

Introduction

La lettre de la NTIA
Extraits de l’avis de la Division Antitrust : les questions concurrentielles

Registres ouverts vs. Registres fermés…
Conclusion

N.B. Merci Martin de m’avoir signalé la chose, puisque je suis resté sans connexion Internet pendant près de deux semaines !

* * *

Introduction

Stephane Van Gelder nous rapporte que l'ICANN fait sa pub dans "The Economist" pour présenter son programme de création des nouvelles extensions.


Et il conclut son billet :
Mais peut-on aussi y voir une sorte de réponse à ceux qui se sont émus du commentaire fait par le Département du Commerce américain sur les nouvelles extensions ? Beaucoup ont vu dans cette lettre postée sur le site de l'ICANN une critique acerbe du programme des nouvelles extensions. Vu que ce dernier est en cours d'élaboration depuis plusieurs années et que le DoC était forcément au courant, on est en droit de se demander si la critique est aussi féroce que certains voudraient nous le faire croire. Ou en tout cas, si elle est de nature à remettre en cause le programme.

Pour l'ICANN, faire ainsi la publicité de son programme de nouvelles extensions et rappeler que ce dernier doit démarrer en 2009 ne serait-il donc pas aussi un signal fort envoyé quant à la pérennité de ce programme ?
Personnellement, j'en doute fort, très fort même, et je crois plutôt à un gigantesque coup de bluff de l'ICANN. Je vais tenter d'expliquer pourquoi, d'abord en présentant le commentaire traduit de la NTIA et des extraits de l’avis de la Division Antitrust dans ce billet, puis en donnant mon avis dans un deuxième à paraître... [Début]

* * *

La lettre de la NTIA (traduction) (original)
Le 23 octobre 2008, l’ICANN a soumis aux commentaires du public une série de documents corrélés – y compris des lignes directrices pour le montage des dossiers –, relatifs à la volonté de l’ICANN d’introduire de nouvelles extensions génériques de premier niveau (gTLDs). Le Département du Commerce (Département) saisit l’occasion pour donner l’avis du gouvernement des États-Unis sur un sujet aussi important.

Nous comprenons que l’introduction de nouvelles extensions génériques est un objectif qui s’inscrit depuis longtemps dans le Projet DNS, mais nous croyons également que le socle sur lequel appuyer cette initiative est le Protocole d’accord fondateur signé entre le Département et l’ICANN, stipulant que l’un des principes clés est la nécessité d’administrer le système d’adressage des noms de domaine sur Internet (DNS) de façon à permettre aux mécanismes du marché d’encourager la compétition et le choix des consommateurs en abaissant les prix, en promouvant l’innovation et en accroissant le libre choix et la satisfaction des utilisateurs. Donc, tout en reconnaissant les efforts déployés et le dur travail fourni par l’ICANN pour rédiger les documents actuellement soumis aux commentaires du public, la façon dont a été abordé et fixé le seuil à partir duquel les avantages potentiels dépassent les coûts potentiels pour les consommateurs n’est pas très claire. À ce propos, nous souhaitons attirer votre attention sur la nécessité, délibérée par l’ICANN lors de la réunion de son Directoire le 18 octobre 2006, de mener une étude économique pour affronter des questions telles que :
  • le marché de l’enregistrement des noms de domaine est-il un marché unique ou chaque extension de premier niveau fonctionne-t-elle comme un marché distinct ?
  • les enregistrements auprès de différentes extensions de premier niveau sont-ils substituables ?
  • quels sont les effets des coûts supportés pour passer d’un Registre à l’autre sur le comportement des consommateurs et sur l’évolution de la tarification ?
  • quels effets la structure du marché et la tarification ont-elles sur les nouveaux entrants ? et,
  • existe-t-il d’autres marchés confrontés à des problématiques semblables, et si oui, comment ces problématiques sont-elles traitées et par qui [sic] ?
L’ICANN doit donc mener cette étude économique et en soumettre les résultats à l’avis collectif avant d’introduire de nouvelles extensions génériques de premier niveau.

Le gouvernement des États-Unis reconnaît l’intention de l’ICANN de considérer attentivement les commentaires reçus durant cette phase et d’entreprendre des consultations ultérieures, y compris la révision des lignes directrices destinées aux candidats aux nouvelles extensions, avant d’introduire ces dernières. Sur ces bases, voici une liste de problèmes spécifiques dont nous pensons qu’ils devraient être résolus dans les documents actuels :
  • s’assurer que l’introduction d’un grand nombre potentiel de nouvelles extensions, y compris des extensions IDN, ne mette pas en danger la stabilité et la sécurité du DNS ;
  • revoir le processus d’approbation des nouvelles extensions, les lignes directrices pour les candidats et la proposition d’accord de Registre afin de :
    1. prendre en considération, autoriser les objections et conserver l’autorité nécessaire pour combattre tout effet néfaste sur l’écosystème concurrentiel susceptible d’apparaître en phase d’approbation des candidatures aux nouvelles extensions ou de renouvellement des contrats en découlant ;
    2. mettre en place des mécanismes compétitifs d’appels d’offres permettant de mettre en concurrence les opérateurs candidats pour qu’ils soient amenés à proposer des conditions de registre – y compris au niveau des engagements sur la qualité de service et les tarifs – susceptibles d’apporter des avantages aux consommateurs ; et
    3. imposer un plafonnement des tarifs ou d’autres conditions susceptibles de se traduire en avantages pour les consommateurs dans les cas où les mécanismes compétitifs d’appels d’offres ne limiteraient pas suffisamment la puissance de positionnement sur le marché des opérateurs de registre ;
  • démontrer que l’CANN a les capacités suffisantes pour faire respecter les conditions contractuelles avec un nombre encore indéfini de nouveaux cocontractants, spécialement à la lumière des questions encore en suspens relatives aux contrats actuels (tels que les avenants proposés aux Accords d’accréditation des Registreurs ou les problèmes concernant la fiabilité du système de reporting des données du WHOIS) ;
  • définir la façon dont l’ICANN conduira l’audit légal des candidatures, considérera les objections légales soulevées par des tiers, et dégagera sa responsabilité en assurant que le processus d’introduction des nouvelles extensions respecte toutes les législations compétentes, nationales et internationales, y compris les droits de propriété intellectuelle ;
  • se concentrer sur les fonctions techniques de coordination relatives à la gestion du DNS et non pas sur des aspects qui incombent plus spécialement aux gouvernements, telles que les questions d’attribution de moralité, d’ordre public ou les objections de la communauté en rapport avec les législations internationales sur les droits de l’homme. Les mécanismes proposés pour traiter ces problématiques sont inappropriés ;
  • créer un mécanisme apte à fournir une liste élargie de noms réservés pour les nouvelles extensions de premier niveau, et, selon les exigences, de noms relatifs aux infrastructures ou aux impératifs techniques ; et,
  • articuler un raisonnement clair autour de la structure tarifaire proposée, ainsi qu’un mécanisme transparent – incluant l’accord de la communauté – pour l’allocation des revenus excédentaires, s’il y en a, vu le statut de l’ICANN en tant qu’organisation à but non lucratif.

Le gouvernement des États-Unis partage l’engagement de l’ICANN pour promouvoir la compétition sur le marché des noms de domaine tout en assurant la stabilité et la sécurité d’Internet, et souhaite continuer à participer à ce processus de manière à ce que les préoccupations collectives de la communauté Internet soient prises en compte avant que l’ICANN ne s’engage à introduire de nouvelles extensions de premier niveau.
Et pour donner encore plus de force à son propos, cette lettre s'accompagne d'un avis de la Division Antitrust (Département de la Justice), signé Deborah A. Garza, qui émet deux recommandations spécifiques : [Début]

* * *

Extraits de l’avis de la Division Antitrust : les questions concurrentielles
Primo, l’approche générale de l’ICANN aux nouvelles extensions devrait être revue pour prendre davantage en considération les intérêts des consommateurs. L’ICANN devrait évaluer plus précisément le ratio inconvénients potentiels vs. avantages potentiels pour les consommateurs avant d’ajouter de nouvelles extensions ou de renouveler les accords de registre relatifs aux nouvelles extensions.

Secundo, le processus RFP et l’accord de registre proposé devraient contenir des mesures permettant à l’ICANN d’empêcher les nouveaux opérateurs de registre d'exercer un pouvoir de marché trop puissant. En particulier, l’ICANN devrait mettre en place des mécanismes compétitifs d’autorisation de nouvelles extensions et de renouvellements d’accords de registre par lesquels les opérateurs candidats sur les extensions génériques de premier niveau seraient mis en concurrence pour proposer des conditions de registre – y compris des barèmes tarifaires plafonnés – susceptibles d’apporter des avantages aux consommateurs.
J'aborderai donc de façon plus détaillée les questions concurrentielles dans un deuxième billet, et je conclurai en donnant mon avis, pondéré en fonction des éléments dont on dispose aujourd'hui. [Début]



Partager sur Facebook

, , , , , ,

mardi 6 janvier 2009

200 millions de sites web en 2009

200 millions de sites web en 2009 ?

Dans la série "prédictions pour la nouvelle année 2009", les miennes seront les suivantes :

- 200 millions de sites Web d'ici la fin de l'année
- 200 millions d'utilisateurs de Facebook

* * *

200 millions de sites Web en 2009


Selon Netcraft, il y avait 186 727 854 sites Web fin 2008 :


Selon Verisign, 174 millions :


Donc on va pas chipoter, en faisant la moyenne (186 + 174 / 2 = 180), ça nous donne une estimation vraisemblable de 180 millions de sites Web début 2009.

Maintenant, en appliquant les pourcentages indiqués par Verisign dans son rapport de décembre, nous avons près de 40% d'extensions pays (ccTLDs), dont 47% de ces extensions pays sont dominées par trois Registres : Chine, Allemagne et Royaume Uni.

Toutes extensions confondues, voici le classement des dix premières :
  1. .com
  2. .cn
  3. .de
  4. .net
  5. .org
  6. .uk
  7. .info
  8. .nl
  9. .eu
  10. .biz

À noter qu'au troisième trimestre 2008 VeriSign a enregistré des pics de traitement dépassant 50 milliards de requêtes/jour sur le DNS, concernant aussi bien l'accès des internautes aux sites Web que les échanges de courriels.

Quant à la répartition de sites actifs, sur 89 millions de sites analysés, il y aurait 21% de parkings (en posant comme hypothèse - vraisemblable - que les sites d'1 seule page sont des parkings), 68% de sites actifs et 11% de redirections (toujours en posant comme hypothèse - vraisemblable - que les domaines qui n'ont pas de sites associés pointent vers des redirections) :


Le fait est que Quensis (qui vient d'ouvrir son site chinois, soit dit en passant), trace déjà l'activité quotidienne de plus de 20 millions de parkings ! Dont les revenus déclinent fortement, mais c'est une autre histoire.

Ceci dit, en prenant le taux de 68% de sites actifs et en l'appliquant aux 180 millions de sites Web actuels, ça nous donne quand même plus de 120 millions de sites qui ont plus d'une page...

Imaginez d'ailleurs le nombre de pages de sites comme Google, Yahoo!, Microsoft ou ... Facebook !

Ce qui m'amène à ma seconde prévision pour 2009, puisqu'en janvier 2008 j'annonçais le dépassement des 100 millions d'utilisateurs avant la fin de l'année, en concluant ainsi mon billet :
Rendez-vous début 2009 pour vérifier :-)
Or fin décembre Facebook comptait déjà 140 millions de membres, soit un gain proche de 90 millions d'adhérents au service juste sur l'année 2008, avec 550% de croissance en un an et demi.

D'ailleurs, en maintenant cette progression, ce ne serait pas 200 mais 250 millions de facebookiens à la fin de l'année !

Donc 200 millions est une évaluation prudente. Nous verrons...



Partager sur Facebook

, , , , , ,