Affichage des articles dont le libellé est monétisation. Afficher tous les articles
Affichage des articles dont le libellé est monétisation. Afficher tous les articles

jeudi 24 mars 2011

Demand Media Infographic

Après mon premier billet sur l'introduction en bourse de Demand Media, voici une infographie intéressante :


[Source: OnlineMBA.com]


Partager sur Facebook

, , , , , , , , ,

lundi 9 août 2010

Demand Media : introduction en bourse !


Enfin du nouveau dans le petit monde d'Internet : créée en 2006, la société Demand Media, qui totalise déjà 52 millions de dollars de pertes depuis sa création, vient de déposer son dossier d'introduction en bourse, IPO pour les intimes...

Je trouve ça très intéressant, d'abord parce que le document est bourré d'infos qu'une société communique rarement, et ensuite, indépendamment des doutes que je peux nourrir sur la question, parce que sa "mission" est pour le moins originale :
Our mission is to fulfill the world's demand for commercially valuable content.
Satisfaire la demande mondiale en contenu commercial de valeur. Autrement dit monétisable. Et pour ça, la seule professionnalisation du contenu ne suffit plus, ce qu'il faut c'est l'industrialisation de la création production de contenu sur Internet !

Ainsi, au deuxième trimestre 2010, le "content studio" de Demand Media a fédéré plus de 10 000 "créateurs de contenu freelances", qui ont généré en moyenne plus de 5 700 articles de texte et de clips vidéos par jour (Demand Media est le premier contributeur de vidéos sur YouTube, avec plus de 1,5 milliard de visualisations au 30 juin 2010), ce qui fait probablement de la société « l'un des producteurs de contenu professionnel en ligne les plus prolifiques au monde ».

Industrialisation, vous disais-je, une production à la chaîne, alimentée grâce à la seconde activité stratégique de Demand Media : l'enregistrement des noms de domaine !

Mais quel est le rapport entre les noms de domaine et la production de contenu, me direz-vous ?

Et bien, d'une part, la société gère en direct environ 500 000 parkings (qu'elle nomme d'un euphémisme "undeveloped websites"), mais surtout elle exploite l'inépuisable gisement de données captées grâce à enom : acheté en 2006, troisième registreur mondial à l'époque, fortement impliqué dans le domain tasting, il a gagné une place quelques mois plus tard en rachetant BulkRegister.

C'est donc aujourd'hui le deuxième registreur au monde avec près de dix millions de domaines enregistrés (le premier, GoDaddy, est presque à 35 millions de noms !).

Il n'empêche que les internautes qui vont sur le réseau enom pour y enregistrer leurs domaines saisissent en moyenne plus de 3 millions de requêtes / jour, et que Demand Media traite ces données pour améliorer ses algorithmes de création de contenu :
These queries and look-ups provide insight into what consumers may be seeking online and represent a proprietary and valuable source of relevant information for our platform's title generation algorithms and the algorithms we use to acquire undeveloped websites for our portfolio.
Donc, grâce à ces données, d'une part elle récupère à la volée les noms expirés qu'elle juge intéressants en fonction de ses propres critères (parfois même aux dépens des propriétaires légitimes, j'y reviendrai...), et de l'autre elle affine ses propres algorithmes de génération de titres.

Génération de titres ! C'est là où l'industrialisation prend tout son sens : une fois passées à la moulinette de ses algorithmes toutes les données dont dispose la société (à la fois propriétaires ou de tierces parties), le résultat est la production de titres optimisés pour le référencement, soigneusement pesés en fonction des sujets à la mode :
Utilizing a series of proprietary technologies, algorithms and processes, we analyze search query and user behavior data to identify commercially valuable topics that are in-demand. This includes analysis of publicly available third-party data, such as keyword prices on large advertising networks and the frequency of specific search queries, as well as analysis of proprietary data from our Content & Media and Registrar service offerings, such as the types of domain names being purchased and the types of search queries driving consumers to our text articles and videos.
Après quoi ces titres sont soumis à l'armée des 10 000 "créateurs de contenu freelances", qui brodent dessus pour en sortir des articles de texte et des clips vidéos :
The process to select the subject matter of our content, or our title selection process, combines automated algorithms with third-party and proprietary data along with several levels of editorial input to determine what content consumers are seeking, if it is likely to be valuable to advertisers and whether it can be cost effectively produced. To produce original content for these titles at scale, we engage our robust community of highly-qualified freelance content creators. As of June 30, 2010, our content studio had over 10,000 freelance content creators, a significant number of which have prior experience in newspapers, magazines or broadcast television. Our content creation process is scaled through a variety of online management tools and overseen by an in-house editorial team, resulting in high-quality, commercially valuable content. Our technology and innovative processes allow us to produce articles and videos in a cost effective manner while ensuring high quality output.
Je vous conseille de lire l'excellent compte-rendu de Danny Sullivan, qui détaille la partie "risques" développée par Demand Media dans le dossier d'introduction en bourse, notamment vis-à-vis de Google : puisque la société tire actuellement plus d'un quart de ses revenus des AdSense et que 60% du trafic de eHow est généré par le moteur, une pénalisation ou un changement soudain des règles du jeu par Google pourraient avoir des conséquences catastrophiques.

Danny conclut en s'interrogeant sur la qualité du contenu et sur la récupération plutôt "limite" des noms de domaines expirés, car même si Google n'a jamais dédaigné le business du parking, en faisant parfois preuve d'incohérences, certaines activités de Demand Media pourraient violer les règles d'utilisation de ses services.

D'autres sont moins gentils que Danny, et n'hésitent pas à critiquer ouvertement cette approche. Selon Aaron Wall :
The very technique that eHow uses today is *exactly* what caused Matt to create Google's anti-spam team!
En conclusion, il reste à voir comment les investisseurs potentiels accueilleront cette opération, mais quoi qu'il en soit je vous conseille de jeter un coup d'œil à ce document, il est vraiment plein d'indications intéressantes !


Partager sur Facebook

P.S. Si vous voulez une synthèse des chiffres, c'est ici...

, , , , , , , , ,

vendredi 13 février 2009

La "vraie" valeur de Facebook ?


La valeur de Facebook est un mystère.

Au fil du temps on est passé de 1 milliard $ à 8 milliards $, puis de 15 milliards $ à 12 milliards $ ou à 10 milliards $, voire de 5 milliards $ à 4 milliards $, ou encore de 6 milliards $ à 3 milliards $, etc.

En cherchant bien on trouverait plein d'autres estimations plus sérieuses les unes que les autres. La réalité, c'est que « la "vraie" valeur de Facebook », personne n'en sait rien, pas même Zuckerberg.

En 2007, la fourchette était comprise entre 7 et 10 milliards $ (à noter que dans cette interview Peter Thiel annonçait la cotation en bourse en 2009 : Thiel said the 'earliest' Facebook would go public is 2009, 'and hopefully not until significantly after that.), en 2008 entre 3,75 et 15 milliards $ (au moins), et en 2009 ?

Car entre 2007 et 2009, Facebook a dépassé MySpace (ce qui était loin d'être acquis au départ), avec un nombre d'utilisateurs multiplié par 4, de 40 à 160 millions ! Et probablement par [plus de] 5 d'ici à la fin de l'année...

[MàJ - Saint Valentin 2009] Les utilisateurs de Facebook seraient officiellement 175 millions...


* * *

Donc même si cette valeur est impossible à chiffrer tant que Facebook n'est pas introduit en bourse (l'année prochaine ?), opération difficile à réaliser sans avoir trouvé d'abord un modèle économique qui tienne la route, il n'en demeure pas moins qu'elle est énorme. Notamment si l'on tient compte des critères de progression, de fréquentation, de potentialités, notamment dans le mobile, etc.

Mais au fond, de la "vraie" valeur de Facebook, qui s'en soucie, me direz-vous. Ben, en premier lieu, ceux qui détiennent les actions, à commencer par les frères Winklevoss, dont la participation peut valoir entre 45 millions $ et 11 millions $, divisée par 4, donc, suivant que vous calculez l'action à 35,90 $ ou à 8,89 $, qui était la valorisation interne de Zuckerberg et du CdA de Facebook, tel que le confirme le document du tribunal rendu public :
AND YOUR HONOR, WHAT WAS THE FAIR MARKET VALUE ACCORDING TO THE BOARD OF DIRECTORS AT THAT TIME? IT WAS $8.89. SO AT THAT FAIR MARKET SHARE WE SHOULD HAVE GOT FOUR TIMES, NOT 1.2 BUT 5 MILLION OF SHARES OF FACEBOOK STOCK.
Voire à 9,27 $ dans le meilleur des cas...

Ensuite, selon ValleyWag, vous avez Zuckerberg, qui devrait avoir une participation d'environ 30%, Sean Parker (± 5%), Peter Thiel (entre 5 et 7%), Microsoft (1,6%), Li Ka-shing, les autres membres de la société, etc.

Et enfin, les utilisateurs du service. Car selon moi, la "vraie" valeur de Facebook n'est pas uniquement économique, c'est aussi une valeur d'usages et de socialisation sur le Web qui existe déjà, même si beaucoup reste encore à découvrir et à inventer, à éliminer, à peaufiner, etc.

Conclusion :
Il y a deux ans, il fallait y être. Aujourd'hui, il faut en partir. Malgré 150 millions d'utilisateurs, Facebook n'a toujours pas trouvé de modèle économique et pratique une forme de fuite en avant : s'il devient payant, tout le monde va en partir. La pub ne rapporte pas de quoi couvrir les frais grandissants d'hébergement et de bande passante. Et Mark Zuckerberg, décrit comme un nouveau Bill Gates, est maintenant sérieusement critiqué.
Alors, selon vous, Facebook en voie de ringardisation ? Personnellement, je ne crois pas.

Je pense plutôt que Zuckerberg conserve des marges de manœuvre importantes, et vu les enjeux énormes qu'il y a derrière, financiers mais pas seulement, gageons que tôt ou tard Facebook réussira à traduire ses nombreux atouts en espèces sonnantes et trébuchantes.

Vos avis ?


Partager sur Facebook

, , , , , ,

samedi 31 janvier 2009

Google - Click Forensics : que cache la rumeur ?

Très étonné par cette affaire de fausse rumeur depuis avant-hier, j'essaie de m'expliquer le pourquoi du comment.

Or quelle n'a pas été ma surprise de découvrir sur le compte Twitter de Tom Cuthbert, fondateur et PDG de Click Forensics, qu'il cautionne lui-même cette rumeur dans deux messages twittés :
  1. l'un renvoyant vers le premier article à l'origine de la rumeur :


    en citant expressément ce paragraphe :
    Google and Click Forensics have often locked horns in the past over the rate of click fraud. Google has accused Click Forensics of being inept in its methodology and misleading in its results in order to make the problem seem bigger than it is. Meanwhile, Click Forensics has charged that Google has purposefully trivialized click fraud and mischaracterized it as a minor problem.
    Signalons pour autant que toute la partie graissée n'est qu'un copier-coller, liens compris, d'un paragraphe identique, écrit à la lettre près plusieurs mois auparavant... par le même journaliste (qui en plus étaye son "article" en citant un courriel remontant à 2007...) !

  2. l'autre définissant le billet de Search Engine Watch comme étant probablement le meilleur article jamais rédigé sur la question !


    Il est également repris dans la rubrique presse du site :

Alors même que celui-ci ne dit rien de nouveau mais se contente de réélaborer sur la base du premier, qui lui-même reprend des infos vieilles de plus de deux ans !

Bizarre, vous avez dit bizarre... Ou, juste par hasard, est-ce que la collaboration Google - Click Forensics ne battrait pas de l'aile ?


Partager sur Facebook

, , , , , , , , , , , , , , , , ,

Google - Click Forensics : la fausse rumeur monte...

Suite : Google - Click Forensics : que cache la rumeur ?


J'ai montré hier que le seul article à l'origine de cette rumeur se fondait sur un courriel datant de plus de deux ans, alors que l'article signé Juan Carlos Perez, d'IDG, n'avait été publié qu'avant-hier sur The Industry Standard !


Or hier The Industry Standard en remettait une couche, sous la signature d'un autre journaliste, Lincoln Spector :


Probablement satisfait de la montagne de rétroliens qu'a dû leur attirer le premier article, ce deuxième morceau de pure information ne fait rien d'autre que de répéter les mêmes choses, si ce n'est que pour mieux appuyer ses dires, il se base sur un autre article de Search Engine Watch, rédigé à partir des mêmes sources éculées...

Or la sauce commence à prendre,


et la rumeur à dépasser les frontières US !


J'ignore ce que dit le japonais, mais le titre italien, c'est "Google rejette les accusations de fraude aux clics" !

Encore à suivre...



Partager sur Facebook

P.S. Hier encore, sur son blog, Click Forensics déclarait :
But Google’s results showed an 18% growth in paid clicks and revenue. That’s just stellar. Since Google controls the large majority of the search market and 98+% of Google’s revenue comes from paid search, this means two things. One, Google is increasing market share. No news there. Two, the market as a whole is still growing at double-digit rates. That’s the real surprise and the truly good news.
À la limite, il y aurait même une troisième explication possible, qui coule de source....

, , , , , , , , , , , , , , , , ,

vendredi 30 janvier 2009

Google et la fraude aux clics

Google - Click Forensics : la fausse rumeur monte...
Google - Click Forensics : que cache la rumeur ?

Comment réagit Google, face à ce problème qui refait surface assez régulièrement, au moins depuis 2006 (année où la fraude aurait coûté 666 millions $ aux annonceurs...) ? Signe que non seulement il n'est pas résolu, mais encore qu'il est en hausse constante, selon un communiqué récent de Click Forensics, et conformément à certaines prévisions.


D'après la terminologie française adoptée par Google, les "clics incorrects" sont détectés par diverses techniques avancées de détection, de filtrage et de contrôle, et communiqués aux annonceurs.



Google a également publié plusieurs rapports, dont celui d'un expert indépendant, M. Alexander Tuzhilin, et plus récemment un document intitulé Report on Third-Party Click Fraud Auditing. Vous pouvez aussi consulter ce doc de Boris et Eugene Mordkovich qui explique les mécanismes frauduleux.

D'ailleurs, Google collabore avec Click Forensics depuis l'année dernière. Or ce matin, je lis dans mes flux que Google contesterait le rapport à peine publié, d'après un email dont la teneur est la suivante :
These estimates continue to count clicks Google does not charge to advertisers as fraudulent, so they are not actually click fraud estimates, ... Furthermore, their estimates have never reflected the invalid click rates we see at Google, ...
Problème : l'article signé Juan Carlos Perez, d'IDG, a été publié hier !


alors qu'on retrouve trace du même email dès ... 2007, pour une affaire qualifiée de dépassée déjà à l'époque !

Ça n'empêche pas les internautes américains d'en débattre encore aujourd'hui, comme hier.

Donc, pour l'instant, je n'ai pas trouvé d'autres sources corroborant cette contestation par Google du rapport de Click Forensics, et l'info commence à être reprise telle quelle...


Mais qu'en penser pour autant ? Que le silence de Google face à ces chiffres et aux déclarations de Click Forensics (Google’s results showed an 18% growth in paid clicks and revenue. That’s just stellar.) est une confirmation implicite de leur réalité ? Et, si oui, à quand une réaction "officielle" ? À suivre...


Partager sur Facebook

P.S. À titre de comparaison, l'année dernière Google minimisait l'impact de la fraude en ne reconnaissant "officiellement" qu'un taux de clics incorrects qui passeraient ses filtres inférieur à 0,02% de l'ensemble des clics.


, , , , , , , , , , , , , , , , ,

dimanche 26 octobre 2008

Google & neuromarketing

Info trouvée sur le blog de Nicholas Carr. Dans son effort continu pour monétiser YouTube, Google s'est adressé à la société Neurofocus, spécialisée en neuromarketing, "science" qui utilise :
des techniques de neuro-imagerie pour identifier les mécanismes cérébraux impliqués dans les comportements d’achat des consommateurs.

L’un des objectifs du neuromarketing est de s’assurer qu’un produit activera les zones du cerveau responsables de la sécrétion d’hormones, qui prédisposeront le corps à être séduit par un produit.

Le neuromarketing désigne deux concepts étroitement liés :
  1. l'étude, via les neurosciences, du fonctionnement du cerveau humain lorsque soumis à des stimuli publicitaires ;
  2. les techniques publicitaires qui en découlent et qui peuvent être rattachées aux réflexes conditionnés.

A. K. Pradeep, CEO de NeuroFocus (dont Nielsen est actionnaire), appelle cela la science de la persuasion...

Mais l'idée derrière tout ça, c'est qu'à l'introduction de nouveaux formats publicitaires (InVideo overlay et Text overlay, qui s'affichent en surimpression à la vidéo visionnée) doivent correspondre de nouvelles mesures :


Et plus précisément :
  1. analyser les ondes cérébrales ;
  2. tracer l'attention et les réactions émotionnelles via l'oculométrie, la dilatation de la pupille (nous savons par exemple que la pupille se dilate face à des stimuli plaisants et inversement...) et la Réponse Electro-Dermale (RED, ou GSR - Galvanic Skin Reponse : Réponse Galvanique de la Peau) ;
  3. mesurer un niveau de diagnostic, pour évaluer tout spécialement l'attention de l'internaute et son degré d'implication émotionnelle et de rétention mémorielle.
Tout ça pour prouver aux annonceurs qu'ils peuvent être tranquilles, que ce genre de pub est très impliquante et améliore fortement l'expérience utilisateur, chez qui elle génère une réponse positive vis-à-vis de la marque. D'où un ROI exceptionnel, qu'ils en soient ... persuadés !

Tout au moins Google espère qu'ils le seront, et ça n'a rien de subliminal. Quant aux internautes, que penseront-ils de ces techniques ? Je vous laisse la réponse...

Un dernier point : un commentateur de Nicholas Carr nous dit que Microsoft est également très actif dans ce domaine et, j'imagine, beaucoup d'autres acteurs. Après tout le neuromarketing n'est pas nouveau, et peut-on encore s'en étonner ?

Le deuxième commentateur affirme qu'il vaudrait mieux que chaque internaute apprenne à être "critique", un avis que je partage fortement. Ne reste plus qu'à donner un sens à "critique"...


Partager sur Facebook

P.S. Voir les démos de ce type de pub...

, , , , , , , ,

jeudi 26 juin 2008

Statistiques, trafic et mesure d'audience : l'exemple de Wikio

Statistiques, trafic et mesure d'audience : l'exemple de Wikio

L'annonce rapprochée du lancement de Google Trends Websites et de Google Ad Planner (voir ici également) fait couler beaucoup d'encre, notamment sur la mise à mort programmée des Comscore, Nielsen, etc.

Il y a quelques jours, une infographie du Monde sur les 15 premiers sites d'information français, proposait un classement où les deux premiers étaient lemonde.fr (3,125 millions de VU) et lefigaro.fr (3,115 millions de VU), où l'on entend par VU (Visiteur Unique), un "individu ayant visité un site au moins une fois", sans cumul sur le mois (ceux qui sont venus à plusieurs reprises ne sont comptés qu'une fois).

Source : Nielsen Net Ratings, sur un échantillon de 9954 personnes représentatives de la population française.

Or aujourd'hui, je vois apparaître dans mes flux ce top 100 des sites français selon Google, où les valeurs équivalentes sont respectivement 2,1 millions de VU pour lemonde.fr (soit un bon tiers de moins) et 1,4 millions de VU pour lefigaro.fr (soit plus de la moitié en moins) !

Première question : au-delà de la différence des critères pris en compte, que croire ? Et qui croire ? Voir un premier élément de réponse (via Emmanuel).

Deuxième découverte surprenante, tout au moins pour moi, Wikio.fr est absent du top 100 ! Tout comme de l'infographie du Monde, alors que Wikio se définit "portail d'information". Bizarre, vous avez dit bizarre ?

J'associe immédiatement cette absence à des déclarations récentes de Laurent Binard sur le modèle économique de Wikio et son trafic :
Laurent estime l’audience pour mai 2008 à 8 millions de VU dont 3 millions sur la France, à 4 pages vues par Visiteur Unique. L’audience se répartit sur 265 000 thématiques et ils en visent 1 000 000 d’ici la fin de l’année. Calculez la croissance potentielle, ils peuvent facilement atteindre fin 2008 plus de 12 millions de VU et de 5 millions de VU sur la France.
Vérifications.

Wikio France : moyenne de 100 000 VU/j x 31 = 3,1 M


Wikio Italie : moyenne de 50 000 VU/j x 31 = 1,55 M


Wikio Espagne : moyenne de 40 000 VU/j x 31 = 1,24 M


Wikio Allemagne : moyenne de 20 000 VU/j x 31 = 0,62 M


Wikio en langue anglaise : moyenne de 20 000 VU/j x 31 = 0,62 M


Pour un total de 7,3 millions de visiteurs uniques sur l'ensemble du réseau Wikio le mois dernier, ce qui corrobore totalement et parfaitement les estimations (le billet a été publié le 20 mai) de Laurent Binard.

Dont 3,1 millions pour wikio.fr, qui n'est pourtant pas présent dans le Top 100 alors qu'il devrait être en 25e position, à égalité avec voila.fr et juste devant infos-du-net.com, ce qui représente environ 8% de l'audience totale des internautes français.

Donc deuxième question : pourquoi cette différence de valeurs entre Google Trends Websites et Google Ad Planner ?

Enfin, pour en revenir à Wikio, sur les espérances de Laurent Binard d'atteindre globalement plus de 12 millions de VU par mois fin 2008, dont 5 millions de VU uniquement sur la France en décembre 2008, je serais plus prudent, vu que la tendance des 5 sites sur les 12 derniers mois ne permet pas d'extrapoler une telle montée en puissance d'ici la fin de l'année.


Je parierais davantage sur 10 millions de VU fin 2008, soit une quarantaine de millions de pages vues en décembre prochain, quoi qu'il en soit un très très beau score et une belle réussite pour le réseau Wikio : actuellement +235 000 VU et environ 1 million de pages vues par jour !

Si vous voulez participer au sondage sur le niveau de monétisation journalier de Wikio, cliquez sur l'image :


Même si ça reste encore un peu en-deçà des stats d'Adscriptor, qui sont tellement énormes que j'ai réussi à faire sauter le compteur de Google... :-)




Partager sur Facebook

P.S. Suite au commentaire d'Arnaud, qui me faisait observer que la réponse à la première question tient au fait que l'on a les visiteurs uniques mensuels dans un cas, et les visiteurs uniques journaliers cumulés sur un mois dans l'autre, d'où l'absence probable de Wikio des deux classements.

En fait, si l'on prend l'exemple de lemonde.fr sur le même mois de mai 2008, admettons qu'une moyenne de 800 000 visiteurs uniques par jour donne seulement 3,125 millions VU par mois, comme si chaque visiteur unique revenait 8 fois dans le mois :


Donc si l'on applique la même aune à Wikio, cela ferait une moyenne inférieure à 1 million de VU mensuels (912 500 pour être précis).

, , , , , , , ,

jeudi 29 mai 2008

Netvibes : from Widget Business Model to Widget Economy

Netvibes : from Widget Business Model to Widget Economy

Des modèles économiques liés aux widgets à l'économie du widget...

Je dédie ce billet à ma mère, Jacqueline Le Ray, partie pour un monde meilleur il y a 33 ans aujourd'hui.

Il y a un an, je ne savais pratiquement rien des widgets. C'est Tariq Krim qui m'en a parlé pour la première fois. En me faisant comprendre entre les lignes que la rentabilisation de Netvibes était liée au binôme Univers + Widgets.

J'ai alors tenté de décrire les modèles économiques liés aux widgets et les interactions entre les trois pôles concernés :
  1. les développeurs ;
  2. les diffuseurs ;
  3. les utilisateurs.
À chaque pôle une "entité" pouvant recouvrir plusieurs acteurs : par exemple, le "développeur" peut être un individu, un réseau de distribution, une régie, etc. La présence du trait haché de la flèche reliant le "développeur" à l' "utilisateur" indique que le premier peut parfois toucher le second sans passer par le "diffuseur", même si dans ce modèle tripartite, c'est ce dernier qui se taille la part du lion. Quelques diffuseurs : MySpace, Facebook, eBay ou ... Netvibes, GYM, etc.

En effet, 99% des fois, seul le diffuseur garantit la visibilité et l'exposition suffisantes pour créer l'effet de taille nécessaire à la satisfaction de l'annonceur. Le diffuseur joue un rôle central en accueillant/affichant le widget sur sa plateforme. Or si vous imaginez le widget - à la fois contenant et contenu - comme une fonctionnalité créée par le développeur à destination de l'utilisateur, il est clair que plus la plateforme d'accueil est importante, plus le nombre d'utilisateurs touchés est élevé.

De même il est probable que ces éléments, plateformes et widgets, vont vite devenir deux des piliers sur lesquels se bâtira le futur écosystème de l'Internet, déjà en route. Avec des plateformes de plus en plus puissantes mais ouvertes, complètes mais faciles à prendre en main, sophistiquées mais gratuites, où l'utilisateur n'a plus qu'à créer/publier/diffuser son contenu (le fameux UGC) dans un environnement intégré, collaboratif.
Or comme le mentionne Pierre Chappaz un an plus tard, contrairement aux attentes, le marché du widget est encore immature. Tariq Krim, lui, s'attend à une forte montée en puissance courant deuxième semestre 2008 et à l'explosion en 2009 de la "widget economy", ou l'économie du widget et des nouvelles opportunités liées à ce marché, pour rendre enfin possible la monétisation du Web social...

Même s'il ne peut s'empêcher de s'interroger : How big is this market ? Comme beaucoup d'autres se posent la même question, du reste. Y compris Adscriptor !

C'est d'ailleurs vraisemblablement pour cela que Tariq quitte aujourd'hui le navire : tiraillé entre la nécessité des investisseurs de valoriser leur mise et son désir de voir un Netvibes volant de ses propres ailes, il doit préférer que la vente probable de Netvibes se fasse via un autre intermédiaire que lui, Freddy Mini en l'occurrence. Ce raisonnement est pure prospection de ma part, c'est clair.

Pour autant, la réalité des widgets a fortement progressé depuis un an et commence à donner des résultats concrets. Ainsi que des « revenus encore modestes, mais en croissance », nous dit Pierre. Qui reconnaît à Tariq d'avoir été « un véritable visionnaire » en la matière.

En fait, sous l'impulsion de Tariq, Netvibes est passé de simple page d'accueil personnalisable à plateforme de widgets, qui en détient déjà plus de 100 000 "en portefeuille", pour la plupart monétisés aux États-Unis, ce qui fait résolument de la société l'un des seuls acteurs européens sur le marché des widgets :
Netvibes is definitely one of the only companies that operate in the widget market in Europe.
Dans ce billet très intéressant, Tariq Krim nous explique sa vision de ce qui pourrait bien devenir, à terme, la widgétisation du Web :
Avant l'introduction de Ginger, le modèle économique de Netvibes était fondé sur la vente à nos partenaires d'univers et de pages en marque blanche contre le paiement de droits de licence mensuels. Aujourd'hui, Ginger intègre un réseau publicitaire widgétisé pour permettre à ses partenaires de distribuer des widgets sponsorisés. Le modèle typique de monétisation est le CPI, ou Coût par installation, couplé à un système d'enchères. Après juste quelques mois d'existence, le programme a démarré sur les chapeaux de roue.
Et Tariq nous donne le lien d'une présentation où il détaille mieux le fonctionnement du modèle.

J'en retiens quelques idées fortes : depuis le lancement de Netvibes, en septembre 2005, 58 millions de comptes créés dans le monde, plus de 110 000 widgets, de 20 000 contributeurs, de 1 000 développeurs pour la plateforme et de 1 000 partenaires.

Des chiffres apparemment impressionnants mais à relativiser, car si on les rapporte aux statistiques citées par Techcrunch, avec une courbe de fréquentation oscillant entre 1 et 2,5 millions de visiteurs uniques par mois, selon comScore, on voit bien que la plupart des comptes sont inactifs, à la différence de Facebook, par exemple.

La vision d'une architecture ouverte pour l'économie du widget afin de faciliter, propager, monétiser :
Our vision
An open architect of the widget economy
Enable, propagate, monetize
Faciliter la propagation et la monétisation des widgets, consiste entre autres à mettre à disposition des outils de widgétisation des flux RSS et d'édition/création de widgets, grâce à des modèles simplement personnalisables :


Et moi qui ai fait l'expérience avec un widget créé pour Primoscrib, y compris sur Netvibes, et bien je peux vous assurer que ce genre d'outil s'avère extrêmement précieux...

D'autres services de promotion sont censés favoriser la diffusion, la visibilité, le positionnement, etc. En un mot : la viralité.

Voilà. Dès demain, Netvibes s'apprête donc à ouvrir davantage ses API et sa plateforme pour lancer de nouveaux services, notamment des librairies et des serveurs open source, destinés à révolutionner l'univers des widgets. L'annonce officielle aura lieu lors de la Conférence des développeurs, intitulée Netvibes Meetup.

Il aurait mieux valu Netvibes Widgup ! Mais bon...

Ce qui est sûr, c'est que grâce au partenariat signé avec Sohu et Maxthon en vue des Jeux Olympiques de Pékin 2008 (du 8 au 24 août prochains), Netvibes va enfin bénéficier d'une visibilité et, je l'espère, d'une couverture maximales, ils n'auront plus qu'à forcer un peu sur le contenu et sortir le grand jeu en matière de communication. Un aspect qui leur a toujours fait défaut jusqu'à présent, AMHA.


Partager sur Facebook

, , , , , , , , , , ,

mardi 13 mai 2008

Aux critiques du Web 2.0

Aux critiques ronchons du Web 2.0

[MàJ - 13h45'] Lire les réactions de Narvic et de Szarah, j'ai déjà répondu en partie à Narvic en commentaire, quant à Szarah, je me donne le temps de la réflexion : son billet est extrêmement argumenté et demande une réponse qui ne l'est pas moins.

* * *

Je réagis à quelques commentaires de Szarah (notamment Le web 2.0 ne détruit pas la culture, il la nivelle au niveau mondial) et plusieurs posts de Narvic, dont l'actuelle première page ne concentre pas moins de 4 billets où il exprime, encore et toujours, sa position fortement critique sur le Web 2.0 :

Affaire Gouguenheim : la clameur des blogs d'extrême droite :
Celui qui crie le plus fort dans la blogosphère

Je ne soupçonne pas la moindre opération occulte derrière cet état de fait : j’y vois seulement le fonctionnement « normal » des algorithmes de recherche de ces moteurs, qui se révèlent extrêmement faciles à manipuler.

Je constate seulement l’effet sur ces moteurs de l’action bien menée d’une communauté de blogeurs biens organisés, qui écrivent tous des billets en même temps sur le même sujet et se lient les uns aux autres par hypertexte. Il n’usent ici que de leur liberté d’expression, et comme ils le font de manière collective : ils occupent à un instant donné tout l’espace de la blogosphère, selon l’image qu’en donnent ces moteurs.

Ce qui me pose problème, c’est que quelqu’un qui souhaite, à cette heure, faire une recherche sur ces moteurs pour s’informer de ce que l’on dit de cette affaire, n’en obtiendra qu’une vision outrageusement orientée et partisane.

Neutralité ? Pertinence ? Fiabilité de l’information ? Ces moteurs de recherche de blogs ne relaient rien d’autre que la clameur de celui qui crie le plus fort à un moment donné ! Et quel impact tout cela a-t-il sur l’opinion que vont se forger sur ce sujet, les internautes qui l’auront abordé au moyens des outils d’internet qui fonctionnent de cette manière ?
Exploitation 2.0 :
Le débat semble enfin s’ouvrir peu à peu sur la face noire du Web 2.0, qui échange une liberté absolue (en apparence) contre une inéquité fondamentale (dissimulée). Bientôt des manifestations en ligne sur les sites de Google, Facebook, Dailymotion et autres Myspace pour demander un partage équitable du revenu généré par l’utilisateur ?
La magie du contenu généré par les utilisateurs :
Vive le Web 2.0 ! (vivat associé à une vidéo censée représenter l'UGC signé Web 2.0, je suppose...)
Le culte de l'amateur. Comment internet détruit notre culture :
Fort bien, mais est-ce que ça va suffire à nous protéger de ce gigantesque nivellement intellectuel par le bas que l'auteur voit se profiler dans le Web 2.0 ? (conclusion sous forme d'interrogation qui fait suite à plusieurs autres questions auxquelles j'ai tenté de fournir quelques brèves réponses...)
Donc, dans une tentative très personnelle de compenser un peu la clameur qui s'élève sur la soit-disant face noire du Web 2.0 et sur les débauches & catastrophes en tous genres qui lui sont associées, voire imputées, permettez-moi de vous donner mon point de vue en réagissant à l'une des questions soulevées par Narvic, demandant « un partage équitable du revenu généré par l’utilisateur » dans l'un de ces billets, Exploitation 2.0, qui cite Nicholas Carr traduit par Francis Pisani :
Le système économique de web 2.0 s’est révélé être dans les faits, à défaut de l’être intentionnellement, un système d’exploitation plus que d’émancipation. En mettant les moyens de production entre les mains des masses tout en leur niant la propriété du produit de leur travail, web 2.0 fournit un mécanisme extraordinairement efficace pour récolter la valeur économique du travail fourni gratuitement par le plus grand nombre et le concentrer dans les mains d’une infime minorité.
Ma première impression, au vu de l'actuelle première page de Novövision, c'est un fort sentiment de gêne, d'injustice, même, face à cette concentration délibérée d'événements et de jugements si négatifs portés sur ce qu'il est convenu d'appeler le Web 2.0, sur l'UGC, sur la blogosphère manipulée et/ou manipulatrice, etc.

Une première mauvaise impression qui s'accentue au fur et à mesure que je lis ces multiples formes de dénigrement sur ce gigantesque nivellement intellectuel par le bas et de la culture au niveau mondial, auquel se livrerait le Web 2.0, là où personnellement j'y vois un formidable instrument de vulgarisation du savoir et de démocratisation des consciences. Gratuitement, qui plus est...

Comme je le disais récemment en commentaire :
J'imagine que c'est toujours la même histoire du verre à moitié vide ou à moitié plein : pourtant c'est toujours le même verre...
* * *

Donc, après le verre à moitié vide, voici ma vision du verre à moitié plein.

Que j'entame par un parallèle évident, pour moi, entre l'Encyclopédie de Diderot et d'Alembert et le Web de Tim Berners-Lee et Robert Cailliau, celui-ci pouvant être considéré comme l'aboutissement inespéré, impensable - et impensé -, d'une entreprise qui avait pour but, selon les termes mêmes de Jean Le Rond d'Alembert dans son Discours préliminaire, d'exposer autant qu'il est possible l'ordre et l'enchaînement des connaissances humaines...

L'enchaînement étant donné sur le Web par l'hypertextualité, et l'ordre restant propre aux individus selon le parcours que chacun/e se donne et/ou s'invente...

Dans une attitude active ou, pour le moins, qui devrait l'être, contrairement à la télévision, par exemple. Car si l'interactivité n'atteint pas sa plénitude sur le Web, alors c'est à désespérer de l'humanité...

Or ce n'est pas le cas : j'observe dans le Web 2.0 une telle effervescence jaillissante de l'interactivité, portée à une puissance (dans son acception mathématique, mais pas seulement) inégalée à ce jour (et probablement encore moins que demain) que j'ai d'énormes difficultés à concevoir que pour certain(e)s, ce même Web 2.0 n'est que source d'évaluations teintées de pessimisme et d'amertume. Des évaluations qui deviennent tellement battues et rebattues qu'elles ne sont plus que lieux communs, clichés, etc.

Sans prétendre à l'exhaustivité, voici quelques exemples qui me viennent à l'esprit parce que ce sont ceux que je rencontre le plus souvent :
  1. le nivellement par le bas ;
  2. la fausse gratuité ;
  3. l'exploitation de l'UGC par les méchants moteurs et agrégateurs en tout genre ;
  4. l'absence ou l'insuffisance du partage des revenus.
* * *

1. Le nivellement par le bas

De quoi parle-t-on ? Du nivellement par le bas de la culture, des consciences ? Mais voici plus d'un demi-siècle que la télé s'en charge, mes chers contempteurs ! Qu'est-ce qui marche le mieux, à la télé ? Le cul, la violence, l'argent, le pouvoir, etc. Rien de nouveau sous le soleil.

Pour autant, doit-on dire que la télé n'a jamais rien fait pour promouvoir la culture des masses ? Non, n'est-ce pas ?

Et attention, je suis moi-même extrait des masses. Issu d'une famille modeste, de parents fonctionnaires, placés plutôt bas dans l'échelle des mérites, sans biens ni aucune fortune personnelle. Qui s'est retrouvé orphelin à la rue à 18 ans. Sans aucun diplôme (niveau BEPC), sans aucune formation professionnelle, sans aspirations, sans soutien économique, sans rien, quoi.

Qui s'est fait sa propre culture en autodidacte à 100%, et qui continue sa formation permanente tout au long de la vie. Tout seul, comme un grand.

Or que m'offre le Web ? TOUT ! Sans limites. Sans argent. Si ce n'est le coût de la connexion. Je me connecte, et vogue la galère. Je navigue, libre. Je peux tout apprendre, tout découvrir, tout approfondir. Partout, sur tout, et même dans toutes les langues, si je veux. Je peux voyager, embarquer sur Google Earth, survoler des pays inconnus, m'égarer dans la voie lactée, etc.

Que l'on me dise quand, et où, depuis l'aube des temps, l'humanité a-t-elle eu un tel outil gratuitement à disposition ?

C'est tellement gigantesque comme gisement de connaissances et d'émerveillements qu'en comparaison la caverne d'Ali Baba me fait penser à un misérable bric-à-brac enfoui dans un cul-de-basse-fosse. Tiens, puisque j'en parle, testez Google, et vous avez comme premier résultat Le Rhin, de Victor Hugo, téléchargeable en un clic !

Toute la connaissance du monde, ou presque, à portée de clic. Gratuitement.

Et bien non ! Si pour vous c'est de l'exploitation, pour moi c'est de l'émancipation.

Et toutes ces critiques négatives qui éclosent à fleur de billets, de discussions, de commentaires, d'articles, etc., me font penser à un combat d'arrière-garde, à une opposition plus souvent stérile que constructive. Je n'ai jamais soutenu que tout est bon, mais je suis un peu las de voir ces discussions sans fin sur la face noire du Web 2.0.

D'où mon parallèle avec l'Encyclopédie :
La grandeur de l'Encyclopédie est précisément d'être une œuvre de combat liée aux circonstances historiques, de mettre en cause des intérêts humains profonds et véritables, de représenter un moment de la société, de l'histoire, de l'esprit, un moment de l'homme. Sa publication, étagée dans les temps, devait donc déchaîner nécessairement des passions contradictoires, devait donc être difficile. Ne déplorons pas les « traverses » qu'elles a rencontrées, elle leur doit sa grandeur. Pour quel dictionnaire se battrait-on de nos jours, et qui se battrait pour un dictionnaire ?
Préface d'Encyclopédie ou Dictionnaire raisonné des Sciences, des Arts et Métiers, édition J'ai lu l'essentiel, articles choisis et présentés par Alain Pons.

Et bien voilà ! Aujourd'hui, perpétuel recommencement de l'histoire, on se bat pour le Web. Et ce n'est qu'un début ! Le Web, c'est l'Encyclopédie à l'énième puissance presque trois siècles plus tard...

* * *

2. La fausse gratuité

J'ai barré "fausse", car la gratuité existe bel et bien sur le Web. C'est d'ailleurs ça qui gêne profondément les bonnes consciences. Surtout en France, la fameuse exception française, comme toujours !

Là encore les anglo-saxons enseignent. Eux ils se posent moins de questions philosophiques (c'est gratuit, c'est pas gratuit, c'est moitié gratuit, moitié payant, etc.), ils élaborent, retraitent les données du problème et reformulent.

Ça nous donne Welcome to the age of the crowd !
Ça nous donne La longue traîne
Ça nous donne Free

(vous avez noté : les trois piliers ci-dessus ont été érigés par des journalistes de Wired...)

Ça nous donne la Sagesse des foules
Ça nous donne la théorie du Web 2.0
Et ça va bientôt nous donner le Web dans les nuages
Et puis encore l'Internet des choses, etc.

Mais pendant ce temps, les franco-français continuent à râler et à se demander si au fond le Minitel, c'était pas mieux !

Tiens, vous voulez que je vous dise quelque chose : votre Minitel (je ne vis plus en France depuis le début des années 80, je n'ai donc pratiquement pas connu le Minitel), si France Télécom ne l'avait pas fourni GRATUITEMENT aux populations, jamais personne ne l'aurait acheté !!!

Donc toute l'économie qui s'est créée ensuite autour du Minitel, y compris avec le cul et le Minitel rose, s'est créée à partir d'un outil distribué GRATUITEMENT avec la bénédiction de France Télécom et de l'État français.

Un exemple à méditer lorsqu'on parle du Web 2.0, ou non ?...

Regardez un peu cette liste de services OFFERTS par Google :
  1. Gmail
  2. Google Document
  3. Google News
  4. Google Alerts
  5. Google Books
  6. Google Calendar
  7. Google Earth
  8. Blogger
  9. Google Base
  10. Orkut
  11. Google Groups
  12. Google Images
  13. Google Desktop
  14. Youtube/Google Video
  15. Google Blog search
  16. Google Reader
  17. Google Photos/Picasa
  18. Google Scholar
  19. Google Notebook
  20. Google Talk
  21. Google Mobile services
  22. Google Pack
  23. Google Analytics
  24. Google Search !!!
Et je suis sûr qu'il y en a d'autres dans la galaxie !

Donc la gratuité fait résolument partie des intemporels de Google, mais aussi de la philosophie de Yahoo!, du monde du libre (Spip, pour n'en citer qu'un...) et de tous les acteurs du Web 2.0 qui savent que le modèle gratuit est désormais une condition sine qua non pour se faire connaître, percer et éventuellement réussir : l'histoire du Minitel qui se répète...

Il y a en outre un service supplémentaire que Google met gratuitement à la disposition de tous : Google Adsense, j'y reviendrai au point 4...

* * *

3. L'exploitation de l'UGC par les méchants moteurs et agrégateurs en tout genre

Dans Google profileur en série, j'ai déjà répondu NON à la question : la gratuité est-elle gratuite sur Internet ?

Il est clair que la stratégie de Google et des autres vise à collecter le plus d'éléments possibles sur ses utilisateurs. Au point qu'on en arrive à plus d'un millier d'événements qui déclenchent la collecte de données "privées" sur les internautes (Data transmission events).

Mais est-ce que ça vous dérange ? À moi, non. Pas plus que ça.

D'ailleurs, si ça vous dérange vraiment, il vous suffit de ne plus utiliser les services listés ci-dessus, c'est aussi simple. D'autant plus que pour tous ces services, vous allez trouver les équivalents payants. Donc pourquoi ne pas payer lorsqu'on peut trouver les mêmes services en payant ?

Si tel est selon vous le prix de l'indépendance et de la liberté, voire du respect de votre vie privée, ce serait bête de vous en priver, justement !

Mais continuer à dire que les moteurs et les agrégateurs ne pensent qu'à exploiter le contenu des autres, parce que tout ce qui les intéresse c'est de se faire du fric sur le dos des internautes sans prendre les responsabilités qui vont avec, c'est pousser un peu loin le bouchon !

D'abord il faut préciser que si quelqu'un ne veut pas être indexé, rien de plus simple. Un noindex et c'est réglé. Une demande de retrait d'index et c'est réglé. Un mail à l'agrégateur pour indiquer son refus et c'est réglé. Donc où est le problème ?

Sauf à dire que les moteurs et les agrégateurs ne serviraient à rien... Un pas que je ne saurais franchir.

Ils indexent mon contenu, et me donnent de la visibilité. Je n'en demande pas plus. Vous ne voulez pas être indexés, restez secrets. Présents sans être visibles. Autrement dit inconnus. Mais alors ne vous étonnez plus que les "algorithmes de recherche de ces moteurs (...) se révèlent extrêmement faciles à manipuler."

Ne vous étonnez plus qu’une "communauté de blogeurs biens organisés, qui écrivent tous des billets en même temps sur le même sujet et se lient les uns aux autres par hypertexte (...) occupent à un instant donné tout l’espace de la blogosphère, selon l’image qu’en donnent ces moteurs."

Donnant ainsi "une vision outrageusement orientée et partisane."

Il faut savoir ce que l'on veut ! Soit on veut avoir une voix pour gueuler plus fort que l'autre quand on juge ses intérêts menacés, soit on veut rester invisible et ... silencieux, mais après on ne s'étonne pas que d'autres occupent le terrain.

Si je travaille la visibilité d'Adscriptor, c'est bien pour tenter de me faire entendre quand j'estime que c'est le moment. Comme avec ce billet, par exemple. Ou comme dans les affaires Martinez ou DatingWatch, etc.

Et lorsque Adscriptor apparaît très bien placé dans les premières pages de Google et très bien positionné sur des mots clés extrêmement concurrentiels, est-ce que vous croyez que cela peut AUSSI avoir une valeur marchande ?

Avez-vous une idée de ce que certains sont prêts à dépenser pour être en première page des résultats de Google et de la valeur d'un tel positionnement ? Que ce soit en payant ou en organique (respectivement 14% contre 86% des clics) ?

Donc que je soigne mon contenu et que l'algorithme d'un moteur ou d'un agrégateur m'aide à en booster la visibilité, je ne vois là aucune exploitation mais juste un deal tacite, gagnant-gagnant.

D'autre part, les moteurs, les agrégateurs, les réseaux sociaux et les autres acteurs du Web 2.0 investissent énormément, notamment dans des infrastructures matérielles et logicielles lourdes. Donc pourquoi s'étonner qu'ils veuillent gagner de l'argent ? Et comment définir ce que serait, dans ce cas, un partage équitable du revenu généré par l’utilisateur ?

* * *

4. L'absence ou l'insuffisance du partage des revenus

Dire que ça n'existe pas serait faux. Adsense, c'est gratuit et ça rapporte ! Tous ceux qui en ont sur leur site le savent, vous n'avez besoin de rien pour mettre votre code Adsense sur vos pages, sauf le respect de certaines "règles", parfois violées par Google lui-même mais qu'il semble vouloir de plus en plus faire respecter (dans la série "faites ce que je dis, mais pas ce que je fais"...).

Il est clair que beaucoup tentent de manipuler les moteurs avec plus ou moins de réussite et de risques pour augmenter leur trafic et gagner plus.

Je peux même vous dire que de nombreux référenceurs qui ont compris comment les choses fonctionnaient préfèrent travailler d'abord pour eux, et ensuite pour les autres, à l'occasion...

Le vrai problème aujourd'hui, c'est que le seul modèle publicitaire qui marche depuis 4 ou 5 ans, le binôme AdWords - AdSense, pour être clair, n'est plus franchement adapté aux diversités des situations sur Internet, notamment au Web participatif et aux réseaux sociaux. D'où les nombreux tâtonnements pour inventer de nouveaux modèles économiques, des widgets à d'autres formes de monétisation des résultats (le CPA, par exemple), en passant par la recherche sociale et la recherche universelle, etc.

Google annonce déjà Adsense for Video, dont on mesurera mieux les enjeux lorsque l'on sait que plus de 10 milliards de clips sont visualisés chaque mois, uniquement aux États-Unis : +10 milliards !!!



Google ! Encore et toujours ! La seule chose que je peux partager, c'est qu'un peu de concurrence dans les régies serait bénéfique pour tout le monde. On attend juste les candidats. Et en Europe, je vous dis pas...

Pour être tout à fait sincère, je ne vois pas vraiment émerger de compétiteurs européens capables de jouer dans la cour des grands.

Exalead ? Bof. En tout cas pas avec ça...
Wikio ? Peut-être. La Justice permettant...

Mais en attendant que de nouveaux modèles viables et solides de monétisation ne voient le jour, avec des règles claires, je conçois difficilement que l'internaute lambda soit fondé à prétendre un partage plus équitable des revenus sur "son" contenu autre que :
  • une visibilité en rapport avec sa "pertinence",
  • un reversement modulé sur ce qui existe déjà, et
  • un choix si vaste et si riche de services gratuits qu'il est pratiquement impossible de tous les utiliser...

Partager sur Facebook

P.S. Narvic, sans rancune, j'espère. Mais dans Novövision je vois le préfixe Nov, un peu comme dans novlangue, qui serait donc censé apporter quelque chose de neuf, une nouvelle vision, justement : je la souhaiterais seulement un peu moins pessimiste...

, , , , , , , ,