lundi 7 juillet 2008

Condamnation d'un blogueur espagnol pour des commentaires sur son blog

Condamnation d'un blogueur espagnol pour des commentaires sur son blog

On en parle beaucoup en Espagne, Julio Alonso, cité en jugement par la SGAE (équivalent espagnol de la SACEM) a été condamné à verser 9 000 euros, en plus des dépens, au motif de commentaires jugés attentatoires à l'honneur de la SGAE, postés sur ce billet.

Chose bizarre, la SGAE a d'abord demandé le retrait du billet, posté en avril 2004 (!), ... 3 ans plus tard !

Julio Alonso annonce son intention de ne pas en rester là et de se pourvoir en recours devant des instances supérieures : Audiencia Provincial de Madrid, Tribunal Supremo, Tribunal Constitucional et Tribunal de Justice de l'Union européenne.

Peut-être Eolas se penchera-t-il sur la question, en tout cas il semble qu'il n'y ait pas prescription sur les commentaires en Espagne, puisqu'en France :
Aucune poursuite ne peut être intentée pour injure ou diffamation trois mois après la publication.
En Espagne, ce ne serait donc pas trois mois, mais trois ans ? Autant dire qu'il n'y a jamais prescription !

De là à penser que le droit français est plein de mansuétude...

Via Pandemia. Les suites de l'affaire sur Delicious.

Le jugement en vidéo :




Partager sur Facebook

P.S. Sur le délai de trois ans entre la date de publication de billet et la demande de retrait de la SGAE, Google y est peut-être pour quelque chose ! En effet, le billet incriminé s'appelait SGAE = Ladrones (voleurs en espagnol), or lorsqu'on tape "ladrones" sur le Web espagnol :


Où l'on voit d'ailleurs que la SGAE a créé ad hoc une page "ladrones", ce qu'on appelle de la gestion de réputation :-)

Source

, ,

samedi 5 juillet 2008

La tribu de la presse à un tournant

La tribu de la presse à un tournant

Comme l'observe Narvic (c'est moi qui graisse) :
Aujourd'hui, on tire sur les journalistes de toutes parts, et des études montrent assez l'ampleur du malaise : la crédibilité est en miette, la défiance s'est installée. Mais les journalistes eux sont les seuls à ne pas tirer sur les journalistes !

Il serait temps qu'ils s'y mettent ! Il y a beaucoup de choses qui ne vont pas dans le journalisme et chez les journalistes.
Les journalistes me font penser à une tribu, une tribu migrante qui est à un tournant de son existence professionnelle (ce que les traducteurs vivent déjà depuis des années...), plutôt mal négocié pour l'instant. C'est ainsi qu'en lisant Migration Point for the Press Tribe, signé Jay Rosen, je lui ai demandé l'autorisation de traduire son billet, qu'il m'a gentiment accordée. Adaptation libre.
Nous assistons à la période initiale d'une montée en puissance du journalisme semi-professionnel, qui s'accompagne d'un déclin de l'ancien mode de vie de la tribu des journalistes professionnels. Je les nomme "tribu" parce qu'ils partagent une culture et un même sens du destin, et parce qu'ils s'imaginent qu'ils possèdent la presse, qui serait la leur, en quelque sorte, du fait qu'ils en dominent la pratique.

Le premier amendement de la constitution américaine dit à tous les citoyens : vous avez le droit de publier ce que vous savez, de dire ce que vous pensez. Or hier ce droit n'était exercé que de façon fort abstraite, alors qu'il s'exerce aujourd'hui concrètement, depuis que la population dans son ensemble se partage le pouvoir de publier. Les projets qui amènent les gens à exercer leur droit pour une presse libre renforcent la presse, que ces projets renforcent ou non les journalistes de profession qui ont mainmise sur la presse.

La tribu de la presse professionnelle traverse une condition dramatique, où il en va de sa survie. Ces dernières années, elle a commencé à réaliser qu'elle ne pouvait plus vivre des rentes héritées d'une situation où les journalistes étaient les pourvoyeurs industriels d'infos
one-to-many, capables de dicter le consensus.

Le terrain sur lequel ont vécu les gens dans les salles de rédaction - qui était également leur modèle économique - ne suffit plus pour rémunérer leur travail, d'où le tournant qu'ils doivent prendre, en dépit de leur réticence : et pour continuer, pour maintenir la presse professionnelle sur sa voie, la tribu de l'info devra migrer, traverser la fracture numérique et se réinstaller sur de nouvelles terres, un nouveau sol, ou, comme nous l'appelons parfois : une nouvelle plateforme.

Toute migration, que les américains idéalisent facilement, est un traumatisme pour la communauté. Il est difficile de tout quitter et d'abandonner des contrées familières. Certains membres de la tribu de l'info ne veulent pas partir : les bilieux des rédactions, un groupe réactionnaire. D'autres préfèrent nier la situation, d'autres encore s'éloigner discrètement du journalisme. Beaucoup sont éjectés vu la régression des conditions contractuelles et économiques de la tribu. Quelques-uns enfin admettent que c'est la panique.

Donc à l'instar des migrants réticents partout dans le monde, les membres de la tribu de la presse doivent décider ce qu'il leur faut prendre avec eux. Quand partir. Où aller. Ils doivent choisir ce qui est essentiel à leur mode de vie, déterminer quelles sont les choses adaptées à l'ancien monde qui sont désormais inutiles, voire handicapantes dans le nouveau ; et se demander s'ils peuvent emmener avec eux ce qu'ils savent. Maintenant, que sera la vie dans l'océan numérique reste bien sûr une inconnue pour tout migrant, et génère un sentiment de crise immédiat pour les anciens de la tribu, qui ont toujours su comment vivre auparavant.

C'est déjà assez dur comme ça. Même si cela le sera encore davantage - ainsi qu'un défi toujours plus grand à relever pour la sagesse politique de la tribu - vu que le terrain sur lequel la presse devra se reconstruire est déjà occupé par des gens comme Jane Hamsher, Roger L. Simon, Arianna Huffington et Glenn Reynolds, qui eux sont occupés à construire une espèce de civilisation alternative aux infos et aux commentaires professionnalisés, ce qui ne les empêche pas de faire usage de la presse à l'ancienne et de l'industrie sous-jacente.

L'une des questions face à laquelle les journalistes sont de plus en plus perplexes aujourd'hui, c'est quoi faire des pros installés et de leurs vieilles habitudes, et comment se positionner vis-à-vis d'eux.

Dans l'actuelle fracture numérique, les conditions d'exercice du journalisme ne sont plus du tout les mêmes. Laissez-moi vous citer quelques faits marquants. La communication est bidirectionnelle,
many-to-many. Le partage horizontal de l'info est devenu aussi important que le modèle top-down de sa diffusion. Les lecteurs sont devenus rédacteurs, et les gens qu'on qualifiait hier d'audience sont aujourd'hui des producteurs de contenu, des experts qui partagent leurs opinions et des consommateurs autonomes.

Il y a une chose que la tribu de l'info n'a pas compris en 1996, lorsqu'elle s'est retrouvée en ligne, en considérant le Web comme un bon moyen de reconditionner son contenu, pris tel quel à l'ancienne plateforme ; or même si le Web peut permettre cela, l'idée de reconditionner le contenu informationnel a un coût intellectuel énorme. Cela n'a pas aidé la tribu à bien appréhender sur quel terrain elle devait reconstruire, mais a permis à la presse de retarder la date de sa migration.

De nos jours, la presse est un territoire partagé, avec des zones pro et des zones amateur, une délimitation appropriée puisque la liberté de la presse elle-même est un territoire partagé, qui appartient autant aux amateurs qu'aux pros. En ligne, les deux zones sont connectées et ont un débit commun (voir un exemple ici). Cela fonctionne toujours sur un mode vertical : de la presse vers le public. Mais ça marche aussi horizontalement : de pair à pair. Avec une partie en système fermé — les systèmes fermés étant bons pour contrôler les choix éditoriaux —, et une partie en système ouvert.

Les systèmes ouverts, en revanche, sont bons pour participer, former la communauté et identifier l'intelligence où qu'elle se trouve sur le réseau. Ils sont bons pour partager et pour faire émerger le bon contenu. Mais ces deux systèmes éditoriaux ne fonctionnent pas de la même façon. L'un ne remplace pas l'autre. Ils ne sont pas ennemis pour autant. Nous avons donc besoin de mieux comprendre comment ils peuvent travailler ensemble.

C'est de là que vient l'idée d'un journalisme pro-am. Je pense que les formes hybrides seront les meilleures - l'ouverture avec ce qu'il faut de contrôle, les amateurs travaillant au côté des pros -, mais cela signifie que nous devrons appréhender comment fonctionnent ces formes mixtes de collaboration. Arianna Huffington, Amanda Michel, Mayhill Fowler, Marc Cooper et moi-même, accompagnés par plus de 3 000 membres abonnés, sommes actuellement plongés dans une tentative de ce genre, OffTheBus.

Arianna et moi voulions unir nos forces pour couvrir les élections américaines, sans idées claires sur la manière de le faire, jusqu'à ce que nous trouvions le nom, OffTheBus. Notre sentiment était que le courant dominant de la presse n'avait réussi jusqu'alors ni à innover ni à s'ouvrir bien loin. Nous voulions donc étendre les pouvoirs de la presse couvrant la campagne présidentielle à celles et ceux qui ne faisaient pas partie du club des pros, aux non-accrédités ayant des convictions et fiers de participer à la vie politique. Ce qu'a fait l'Huffington Post en permettant à des milliers de blogueurs d'écrire dans ses colonnes, en signant avec des milliers de journalistes citoyens pour suivre la campagne.

Notre idée : vous pouvez publier des sujets politiques indépendamment de votre positionnement. Vous n'avez pas besoin d'être dans la zone "presse" pour faire du journalisme sur la campagne présidentielle. Huff Post filtre les meilleurs sujets qui font la une, et, de là, sont injectés dans la conversation nationale. Nous allons ensuite tester un modèle de publication distribuée pour couvrir la campagne.

Dans la course à la narration, nous entreprenons quelque chose de “nouveau”, comme l'a observé Zephyr Teachout pour inaugurer cet événement, quelque chose en dehors des sentiers battus. Ainsi que l'a souligné Clay Shirky, l' “action collective en est facilitée”. En mettant nos idées en pratique, nous avons voulu faire, quelque part, une presse renouvelée.

Au final, je pense qu'il est temps que la presse s'élargisse, ne croyez-vous pas ? Cela signifie que nous devons étendre nos idées sur le sujet. C'est le but de ce billet.
Voilà. Je ne suis qu'un “amateur” mais c'est ma manière de contribuer au débat qui agite en ce moment les esprits sur la crise du journalisme et de la presse en général. Je laisse aux “pros” le soin d'adapter ce billet à la réalité francophone et de trouver les liens qui vont avec.

Sur le modèle de publication distribuée, voir également ici. Personnellement, je pense que ce pourrait être là un excellent laboratoire d'expérimentation pour développer une contribution communautaire “encadrée”.

Laissez-moi enfin vous signaler trois lieux de réflexion essentiels : Narvic, Journalistiques et Média Chroniques. Déjà si vous lisez tous leurs billets et suivez tous leurs liens, vous en saurez ... davantage que moi :-)

Merci encore à Jay Rosen, et si vous souhaitez suivre la campagne présidentielle américaine jusqu'à son terme, voici un lien de choix : OffTheBus !

En France, ne reste plus qu'à savoir qui et quand sera capable de sauter hors du bus...


Partager sur Facebook

P.S. Juste une citation (via ABC Digital Futures) :
Journalists are too often reduced to a cross between call-centre workers and data processors.

Trop souvent le rôle des journalistes se réduit à un croisement entre les tâches d'opérateurs de centres d'appels et celles d'opérateurs de traitement des données.

, , , , , , , , , ,

dimanche 29 juin 2008

Le point Paris sur l'AFNIC

Le point Paris sur l'AFNIC

[MàJ - 4 juillet] Réponse de l'AFNIC à la consultation publique...

Cela fait longtemps que je voulais faire un billet sur l'AFNIC, et l'occasion m'en est donnée à la lecture d'un article d'Antony Van Couvering sur son blog, qui adopte une attitude très critique vis-à-vis de l'AFNIC, et notamment sur la gestion des extensions françaises autres que le .fr, plus d'une dizaine à ce jour :

DOM
.re / Île de la Réunion
.mq / Martinique
.gp / Guadeloupe
.gf / Guyane française

TOM
.tf / Terres Australes et Antarctiques
.nc / Nouvelle–Calédonie
.pf / Polynésie française
.wf / Wallis et Futuna

Collectivités territoriales à statut particulier
.pm / Saint-Pierre et Miquelon
.yt / Mayotte

Futures extensions
.bl / Saint Barthélemy
.mf / Saint Martin

Pour un total de 14 ccTLD français, en y ajoutant le .fr et le .fx qui devait être réservé à la France métropolitaine, avant d'être abandonné et retiré de la liste officielle IANA.

J'ai donc demandé à Antony son autorisation avant de faire la traduction qui suit, adaptée (car les chiffres qu'il donne ne correspondent pas avec ceux de l'AFNIC) :
L'AFNIC détient plusieurs extensions “coloniales” qu'elle garde dans l'obscurité et qui ne sont pas opérationnelles. Au moins quatre de ces extensions ont déjà fonctionné avant d'être arrêtées sous la pression de la France. Leur absence d'activité sur Internet empêche leurs habitants de faire valoir leur identité distincte.

En septembre 2007, la liste ISO-3166-1 dont sont extraits les codes pays pour les extensions génériques, fut remaniée, et deux nouvelles extensions françaises ajoutées (.bl / Saint Barthelemy, et .mf / Saint Martin, la partie française), ce qui augmente le nombre d'extensions “dormantes”.

Il est clair que l'AFNIC peut compter sur des gens compétents, même si je ne suis pas très fan de leur politique en matière de nommage, ce que j'ai déjà eu l'occasion de préciser, autant en qualité de panéliste lors de l'atelier ICANN sur les nouvelles extensions que dans un précédent billet.

Durant les débats, j'ai souligné que ces nouvelles extensions étaient une expérimentation, qui devait prévoir une certaine marge d'erreur pour être validée. Bertrand de la Chapelle, représentant français auprès du GAC (Governmental Advisory Committee), est intervenu en disant :
Croyez-vous vraiment que le meilleur service à rendre à la sécurité et la stabilité d'Internet soit de laisser une marge d'erreur au cadre de développement des extensions, avec certaines en situation d'échec et d'autres non ? Ce n'est pas mon avis.
Ayant déjà vu toutes sortes d'indignations à l'ICANN, notamment avec le GAC, je n'aurais peut-être pas dû être surpris. Mais là, je dois dire que mon sang n'a fait qu'un tour.

Les extensions coloniales françaises sont des échecs, par définition. Elles ne marchent pas du tout. Quatre d'entre elles (.gf, .mq, .gp et .pm) ont d'abord été gérées par des opérateurs locaux avant d'être arrêtées. Même si, sous une forme ou une autre, elles font officiellement partie de la France d'Outre-Mer.

(...)

On peut donc se montrer sceptiques, puisque rien ne garantit que ces extensions pays seront gérées au bénéfice des communautés Internet locales, conformément aux exigences inhérentes aux délégations visées dans RFC 1591, le document fondateur qui énonce les responsabilités des opérateurs pour les extensions de premier niveau, pas plus qu'aux exigences d'IPC 1, tentative de l'ICANN de remplacer RFC 1591.

Une bonne nouvelle cependant ! Dans un apparent volte-face, l'AFNIC a entrepris une consultation publique, afin de voir quelles devraient être les conditions (s'il y en a) pour que les extensions de ces territoires puissent être activées. Je ne peux que spéculer sur leurs intentions. La consultation est “ouverte”, ce qui signifie que tous peuvent donner leur avis, mais, malheureusement, la date butoir pour recevoir les commentaires était le 24 juin, or je n'ai découvert cette consultation que la veille, lors de l'atelier de l'ICANN.

Voici le but de cette consultation :
Le ministère de l’économie, de l’industrie et de l’emploi organise une consultation publique
sur les modalités de gestion des domaines internet concernés par l’article L.45 du code des
postes et des télécommunications (CPCE) et par son décret d’application 2007-162 :
« .fr » France ;
« .gf » Guyane Française ; « .gp » Guadeloupe ; « .mq » Martinique, « .re » Réunion
« .pm » Saint Pierre et Miquelon ; « .wf » Wallis et Futuna ; « .yt » Mayotte ;
« .tf » Terres Australes et Antarctiques Françaises ;
ainsi que les futurs domaines « .bl » Saint Barthelemy et « .mf » Saint Martin.
J'ai passé plus de temps que n'en justifie mon salaire en cherchant sur le site de l'AFNIC et sur des sites connexes, mais j'ai été incapable de tomber dessus. Pourquoi donc ? Voici l'URL dans son intégralité :

http://www.telecom.gouv.fr/rubriques-menu/organisation-du-secteur/
textes-reglementaires/consultations-appels-candidatures/
consultations-ouvertes/modalites-gestion-du-domaine-
internet–dot-fr-extensions-outre-mer-1652.html

Il est clair que les Télécoms français n'apprécient pas la navigation directe (type-in). Il est également significatif que cette consultation ne se trouve pas sur le site de l'AFNIC, sur lequel je n'ai d'ailleurs pas pu trouver le lien.

Donc il semble bien que, pour la première fois, les autorités françaises envisagent d'ouvrir presque une dizaine de ces extensions pays. (Il serait inexact de dire que ces extensions n'ont pas du tout été prises en considération auparavant, puisque l'exploitation d'au moins quatre d'entre elles a déjà été arrêtée, sans consultation aucune.) Cela dit, nous devons applaudir ce processus de consultation, quand bien même il reste bien caché, tardif et aux conséquences incertaines. Une telle action pourrait inciter les autorités états-uniennes (.um) et norvégiennes (.bv, .sj) à suivre l'exemple en vue d'ouvrir elles aussi leurs extensions captives.

Difficile pour moi de dire de quoi il retourne vraiment, mais je me demande pourquoi, vers le mois de septembre 2007, un regain d'activité de l'ISO a concerné exclusivement les territoires français. Mises à part les deux extensions (.bl et .mf), il y a eu différents remaniements d'un code ISO à l'autre. Le point de vue charitable, c'est que la France souhaite augmenter sa contribution financière à l'ICANN, qu'elle s'est donc arrangée pour ajouter deux nouvelles extensions, qu'elle a reçu ensuite deux factures supplémentaires, en ajoutant ainsi sa contribution de façon quasiment anonyme, de sorte à pouvoir échapper à toute insinuation sur des buts autres que charitables. C'est possible… En revanche, le point de vue cynique, c'est que la France veut seulement obtenir deux votes de plus au sein du CCNSO. À moins que cela n'ait absolument aucun rapport avec les noms de domaine.

Mais quelle que soit la raison, je félicite les autorités françaises de faire au moins un premier geste, quand bien même ténu.

Ceci dit, j'espère bien qu'à l'avenir, on m'évitera les discours sur les dangers induits par le fait de permettre qu'une extension puisse être un échec.
Espérons donc, cher Antony, que le futur lancement du .paris sera pour le moins un franc succès. :-)




Partager sur Facebook

P.S. À vrai dire, je n'ai pas épuisé le sujet sur l'AFNIC, mais ce sera pour une autre fois. En outre, je vais être éloigné pendant 4 jours de mon bureau, donc c'est sur ce billet que je termine le mois de juin et vous donne rendez-vous vers le week-end prochain. Bonne semaine :-)

, , , , , ,

samedi 28 juin 2008

Crowdsourcing : contribution communautaire

Le crowdsourcing, ou la contribution communautaire

Dans le cadre de la réflexion que je mène sur Web 2.0 et modèles économiques, et notamment sur la nécessité d'inverser la traîne, le crowdsourcing occupe une place de choix.

Il est difficile de traduire ce terme, souvent influencé par le contexte dans lequel il se trouve, au croisement de l'externalisation (outsourcing) et de la foule (crowd), même s'il me semble que sa signification et sa portée s'étendent de plus en plus.

Personnellement, je le définirais par "contribution communautaire", vue comme apport de contenu volontaire, plus ou moins gratuit ou intéressé, c'est selon. En outre cela touche un nombre considérable d'activités sur Internet, de la photographie à la cartographie, en passant par la traduction, l'encyclopédie et l'innovation au sens large, etc.

En fait, je pense que s'estompent chaque jour davantage les contours entre contenu généré par l'utilisateur (UGC), contribution communautaire (crowdsourcing), pro-am, Internet participatif et Web social dans leur ensemble, autant de concepts qui témoignent cependant d'une tendance commune, d'une orientation partagée, de plus en plus destinées à jouer un rôle clé dans l'évolution d'Internet.

J'aime assez le modèle FLIRT créé par Sami Viitamäki en deux versions successives :


FLIRT signifie :
  • Focus
  • Languages
  • Incentives
  • Rules
  • Tools
Focus, Langues, Incitations, Règles, Outils, voilà tout un outillage des coopérations qui ne saurait nous faire oublier que le Web coopératif, il faut le vouloir !

D'abord et avant tout. Comme l'observe Narvic :
Les outils sociaux du Web 2.0 sont très utiles pour cela, mais il faut des volontaires... et des volontés. Où va-t-on les trouver ?
Et de proposer de redonner la voix aux créateurs, ce qui me rappelle un excellent billet de Josh Catone, où il constate que les foules sont meilleures pour valider les contenus que pour les créer (Crowds are better at vetting content than creating it).

Un avis contrastant apparemment avec celui de Chris Sherman sur la recherche sociale, qui « fait de plus en plus parler d'elle, mais (qui) en dépit de cet engouement (...) n'est pas prête à remplacer la recherche algorithmique traditionnelle ».

Ici la question des créateurs est centrale, même si la fameuse règle des 1% tend à confirmer la théorie d'Hubert Guillaud et Daniel Kaplan, selon laquelle un web massivement relationnel n'annonce pas par définition un monde massivement coopératif.

Il n'empêche, l'homme est un animal social...

* * *

Pour ma part, je pense que tous ces concepts sont à la fois très riches et trop nouveaux, très riches et porteurs d'implications de toutes sortes, mais trop nouveaux pour qu'on puisse encore bien en saisir les degrés, les interdépendances et ... les conséquences !

Tant à court terme qu'à moyen-long terme.

À noter enfin que le pendant du crowdsourcing serait le slavesourcing cher à Nicholas Carr, dans une confluence « vers un monde meilleur, où les machines externalisent l'universel slavesourcing crowdsourcing de l'intelligence et du travail humains » (en attendant The One Machine...), une variante de ce que Narvic appelle en bon français la sagesse du troupeau.

De quoi se demander si la sagesse des foules appartient vraiment aux foules...

Donc pendant que je tente de progresser dans ma vision des choses (c'est quand même assez compliqué, tout ça), laissez-moi vous proposer la lecture d'un document intitulé Le crowdsourcing, une intermédiation hybride du marché, par Cédric Pélissier, dont je vous livre la conclusion en espérant vous donner l'envie de lire le PDF (25 pages) :
Le crowdsourcing est un de ces nouveaux phénomènes issus du web 2.0, une nouvelle organisation qui se développe et s’implante sur la toile. Le modèle crowdsourcing compose aussi avec les outils du web. Cet univers est un prolongement des communautés web, de l’open source, de l’open innovation, etc. Cette nouvelle construction sociale nécessite désormais d’intégrer ces nouvelles formes d’échanges dans les constructions théoriques autour de l’open source, de l’open innovation et plus généralement autour des processus de collaboration et de gouvernance. Ces premiers résultats nous montrent qu’il faut dépasser les logiques dualistes entre marchandisation des entreprises et militantisme des communautés, mais plutôt prendre en compte l’ensemble des dimensions et rationalités qui s’entrecroisent dans ces nouveaux univers. Il est nécessaire de penser d’emblée ces modèles comme des modèles hybrides.
« Dépasser les logiques dualistes entre marchandisation des entreprises et militantisme des communautés » : vaste programme...


Partager sur Facebook

, , , , , ,

vendredi 27 juin 2008

Turning the Tail: from Long Tail to Big Tail

Turning the Tail: from Long Tail to Big Tail

Inverser la traîne - Passer de la longue traîne à la grande traîne (French version)

Turning the tail...

* * *

In a seminal article titled The Long Tail, published in October 2004 on Wired, Chris Anderson described a new niche strategy where it became possible to sell large numbers of unique items in relatively small quantities.


In fact, what would have been uneconomic in brick and mortar businesses was becoming possible AND profitable thanks to the Internet.

This concept of the “long tail” flourished and now applies to many other situations, such as domain names, for example, as well as (and especially) advertising. In particular since Google’s impressive conceptual – and commercial – innovation with the famous pair AdWords-AdSense.

In an interesting post on this matter, Scott Karp does an excellent job explaining wherein lies the innovation: factoring relevance into the auction model!

Let me explain: from 1999 to 2001, AdWords operated on a CPM basis, or cost per thousand impressions, the fee structure in fashion at the time, where advertisers were billed based on the number of impressions of their ads.

However, as Sergey Brin himself said, “It didn’t generate much money”.

In his book, The Search, John Battelle tells us that income from AdWords rose to about $85 million in 2001, while Overture earned $288 million the same year with its auction model operating on a CPC basis (cost per click, or the amount an advertiser pays for each click on its ad).
An auction system enables the advertiser to determine the cost per click incurred when users visit its site as a sponsored link. The starting bid is set at 0.15 $ per click. When the visitor enters keywords that were bid on, the search engine results page offers sponsored links, with the highest bidder’s site at the top of the list.
But Google couldn’t simply use Overture’s business model, unless they wanted a lawsuit. Even so, the lawsuit still happened and lasted more than two years, until the parties came to an agreement and dropped the suit.

However, it’s the essential difference between the two systems that enabled Google to defend itself and avoid a sentence: where Overture automatically linked the top ranking in the results to the highest bid value, Google introduced the idea of relevance, or rather popularity, with clickthrough rate (CTR), whose official definition is:
the number of clicks your ad receives divided by the number of times your ad is shown (impressions).
In other words, the bid value now became just a component, factored by the applicable clickthrough rate. John Battelle explains it the most clearly:
(A)ssume further that Accountant One is willing to pay $1.00 per click, Accountant Two $1.25, and Accountant Three $1.50. On Overture's service, Accountant Three would be listed first, followed by Accountant Two, and so on. The same would be true on Google's service, but only until the service has enough time to monitor clickthrough rates for all three ads. If Accountant One, who paid $1.00 per click, was drawing more clickthroughs than Accountant Three, then Accoun- tant One would graduate to the top spot, despite his lower bid.
A tiny innovation, but it took Google from $85 million in revenue in 2001 to billions just 7 years later!

And that’s not all: since apparently no one as improved upon it, most of the major Internet players are still looking for a decent business model.

In fact, this notion of relevance is also at the source of PageRank, at the heart of Google’s success. They go hand in hand. A search marketer cuts to the chase: If you don't provide the results, you don't get the money...

Now, the other reason for mass adoption of Google’s advertising services is... the long tail, as John Battelle rightly describes (emphasis mine):
You think Amazon's got scale? You think eBay is huge? Mere drops in the bucket. Amazon's 2000 revenues were around $2.76 billion. But the Neil Moncreifs of the world, taken together, drove more than $25 billion across the Net that same year, according to U.S. government figures. That's the power of the Internet: it's a beast with a very, very long tail. The head-eBay, Amazon, Yahoo-may get all the attention, but the real story is in the tail.
The power of the Internet is in the tail!

This is how Google achieved such amazing success. It was the only one to match advertisers’ needs with the fuel they required in abundance on the Internet: RELEVANT content. With an innovative ad server that enables millions of small sites and blogs to monetize their content, or at least to hope to...

But where Yahoo! had a presence since the beginning – since well before Google and before running astray – today Jerry Yang's abdication hands Google 90% of the advertising pie practically on a silver platter (if antitrust authorities accept it... even as advertisers already devote about 70% of their search budgets to Google!). All the other ad servers combined share the remaining 10%.

Even so, in 2008 no one has any illusions anymore (as Emmanuel Parody commented caustically: AdSense paying for content? That’s a joke...) and UGC, even if it continues to be created at full tilt, is no longer monetized like it should be (has it ever been?). Leaving millions of content creators fed up with their content be reused and monetized by the Web giants without any satisfactory form of payment or revenue sharing. [Top]

* * *

Turning the tail

A disruption in this success story is possible, however: it would just require turning the tail, to move from the long tail of UGC to the big tail, represented by the yellow part in the graph:


(no, This is not a pipe!)

To illustrate my idea, in a predictable imbalance predicted indeed by Clay Shirky in 2003, the analysis of 433 blogs ranked by number of incoming links illustrated the concept of the long tail nicely, with at the head:
  1. top two sites accounted for fully 5% of the inbound links between them,
  2. top dozen (less than 3% of the total) accounted for 20% of the inbound links, and
  3. top 50 blogs (not quite 12%) accounted for 50% of such links.

Now imagine an analysis of not 433 blogs, but tens of millions of blogs, sites, social network pages, etc.

Then you will understand that the head (the green part), which we will arbitrarily say equals 30% of sites/blogs/pages that would form the network’s core in the good old bow-tie theory (i.e., the core of most interconnected sites where the most links and traffic converge and are shared), no longer cuts it when the UGC mainstream now forms not the long tail, but the big tail of the Web, rather predominant today.

There is the real issue for UGC and the creators behind it: they lack representation: Everyone is mooching off their content to monetize it better than everyone else, but nobody really monetizes it at its fair value.

In fact, currently only the head attracts advertisers, while the tail is left to Google, which takes full advantage of it without fearing the inconsistencies...

My prediction is that the first player who succeeds in doing what Google did five years ago with AdSense, this time adapting relevance and fair revenue sharing for UGC, will introduce an even more formidable break with the past, with the added blessing of content creators, who are obviously the most harmed in and by the current system.

Turning the tail, moving from the long tail to the big tail, is the Internet’s next big challenge. Steve Ballmer himself says nothing less :
At the end of the day, this is about the ad platform. This is not about just any one of the applications. The most important application for the foreseeable future is search.
So we have all the data for the problem, and the first ad server that creates the RELEVANT mix to match advertisers’ needs on one side with the legitimate monetization expectations of content creators on the other side (matching the inventory of the latter based on the message of the former), will win the jackpot. Even if there are still a few unknowns.

It just has to be an ad... equate match! ;-) [Top]


Partager sur Facebook

, , , , , , , , , ,

jeudi 26 juin 2008

ICANN et nouvelles extensions

ICANN et nouvelles extensions

Annonce officielle...

C'est approuvé ! Après la désinformation, comme quelqu'un le disait en commentaire, voici venir le temps de « la réflexion technique et argumentée ».

J'aurai l'occasion d'y revenir... et je ne serai pas le seul !

Pour l'anecdote, vu que les nouvelles extensions ne devront avoir aucune proximité avec celles qui existent auparavant, vous pouvez vous entraîner ici (via CircleID) pour connaître votre score de similarité (clin d'œil à Pierre Chappaz, quand il disposera de son extension perso... :-) :


L'ICANN approuve également l'introduction d'un nombre d'IDN limités pour les codes pays (cf. modalités d'application) et espère mettre un terme au domain tasting, selon les recommandations du GNSO.

Trois changements majeurs - ou tout au moins qui devraient l'être - pour l'évolution d'Internet...


Partager sur Facebook

P.S. Dans une première analyse sur Read Write Web, Frederic Lardinois écrit :
The .com domain has become so ingrained in our Internet culture that it has practically become synonymous with domain names and the Internet as a whole.
La culture Web est si imprégnée du .COM que l'extension est devenue synonyme de noms de domaine et de l'Internet comme un tout par antonomase.

Nous verrons. Les habitudes peuvent changer très très très vite sur le Net...

, , , , , ,

Statistiques, trafic et mesure d'audience : l'exemple de Wikio

Statistiques, trafic et mesure d'audience : l'exemple de Wikio

L'annonce rapprochée du lancement de Google Trends Websites et de Google Ad Planner (voir ici également) fait couler beaucoup d'encre, notamment sur la mise à mort programmée des Comscore, Nielsen, etc.

Il y a quelques jours, une infographie du Monde sur les 15 premiers sites d'information français, proposait un classement où les deux premiers étaient lemonde.fr (3,125 millions de VU) et lefigaro.fr (3,115 millions de VU), où l'on entend par VU (Visiteur Unique), un "individu ayant visité un site au moins une fois", sans cumul sur le mois (ceux qui sont venus à plusieurs reprises ne sont comptés qu'une fois).

Source : Nielsen Net Ratings, sur un échantillon de 9954 personnes représentatives de la population française.

Or aujourd'hui, je vois apparaître dans mes flux ce top 100 des sites français selon Google, où les valeurs équivalentes sont respectivement 2,1 millions de VU pour lemonde.fr (soit un bon tiers de moins) et 1,4 millions de VU pour lefigaro.fr (soit plus de la moitié en moins) !

Première question : au-delà de la différence des critères pris en compte, que croire ? Et qui croire ? Voir un premier élément de réponse (via Emmanuel).

Deuxième découverte surprenante, tout au moins pour moi, Wikio.fr est absent du top 100 ! Tout comme de l'infographie du Monde, alors que Wikio se définit "portail d'information". Bizarre, vous avez dit bizarre ?

J'associe immédiatement cette absence à des déclarations récentes de Laurent Binard sur le modèle économique de Wikio et son trafic :
Laurent estime l’audience pour mai 2008 à 8 millions de VU dont 3 millions sur la France, à 4 pages vues par Visiteur Unique. L’audience se répartit sur 265 000 thématiques et ils en visent 1 000 000 d’ici la fin de l’année. Calculez la croissance potentielle, ils peuvent facilement atteindre fin 2008 plus de 12 millions de VU et de 5 millions de VU sur la France.
Vérifications.

Wikio France : moyenne de 100 000 VU/j x 31 = 3,1 M


Wikio Italie : moyenne de 50 000 VU/j x 31 = 1,55 M


Wikio Espagne : moyenne de 40 000 VU/j x 31 = 1,24 M


Wikio Allemagne : moyenne de 20 000 VU/j x 31 = 0,62 M


Wikio en langue anglaise : moyenne de 20 000 VU/j x 31 = 0,62 M


Pour un total de 7,3 millions de visiteurs uniques sur l'ensemble du réseau Wikio le mois dernier, ce qui corrobore totalement et parfaitement les estimations (le billet a été publié le 20 mai) de Laurent Binard.

Dont 3,1 millions pour wikio.fr, qui n'est pourtant pas présent dans le Top 100 alors qu'il devrait être en 25e position, à égalité avec voila.fr et juste devant infos-du-net.com, ce qui représente environ 8% de l'audience totale des internautes français.

Donc deuxième question : pourquoi cette différence de valeurs entre Google Trends Websites et Google Ad Planner ?

Enfin, pour en revenir à Wikio, sur les espérances de Laurent Binard d'atteindre globalement plus de 12 millions de VU par mois fin 2008, dont 5 millions de VU uniquement sur la France en décembre 2008, je serais plus prudent, vu que la tendance des 5 sites sur les 12 derniers mois ne permet pas d'extrapoler une telle montée en puissance d'ici la fin de l'année.


Je parierais davantage sur 10 millions de VU fin 2008, soit une quarantaine de millions de pages vues en décembre prochain, quoi qu'il en soit un très très beau score et une belle réussite pour le réseau Wikio : actuellement +235 000 VU et environ 1 million de pages vues par jour !

Si vous voulez participer au sondage sur le niveau de monétisation journalier de Wikio, cliquez sur l'image :


Même si ça reste encore un peu en-deçà des stats d'Adscriptor, qui sont tellement énormes que j'ai réussi à faire sauter le compteur de Google... :-)




Partager sur Facebook

P.S. Suite au commentaire d'Arnaud, qui me faisait observer que la réponse à la première question tient au fait que l'on a les visiteurs uniques mensuels dans un cas, et les visiteurs uniques journaliers cumulés sur un mois dans l'autre, d'où l'absence probable de Wikio des deux classements.

En fait, si l'on prend l'exemple de lemonde.fr sur le même mois de mai 2008, admettons qu'une moyenne de 800 000 visiteurs uniques par jour donne seulement 3,125 millions VU par mois, comme si chaque visiteur unique revenait 8 fois dans le mois :


Donc si l'on applique la même aune à Wikio, cela ferait une moyenne inférieure à 1 million de VU mensuels (912 500 pour être précis).

, , , , , , , ,