Lucian A. Bebchuk
Frank J. Biondi, Jr.
John H. Chapple Mark Cuban
Adam Dell
Carl C. Icahn
Keith A. Meister
Edward H. Meyer Brian S. Posner
Robert K. Shaye
Les deux soulignés, respectivement ex-CEO de Nextel Communications et de Grey Global Group, avaient déjà été désignés par Microsoft comme mentionné au bas de ce billet...
Leurs bios respectives sont détaillées dans la lettre (en français).
Filo et Yang possèdent moins de 10% des actions de Yahoo!, donc ils peuvent repousser la conclusion mais pas l'empêcher.
Deux gars détenant moins de 10% du capital de Yahoo! bloquent ce deal -- Jerry Yang et David Filo. Je comprends leur logique. C'est eux qui ont créé Yahoo! Ils haïssent probablement Microsoft. Ils se sentent remplis de fierté. Ils pensent que laisser le champ libre à Microsoft signifierait capituler devant l'empire du mal.
Mais s'ils croient cela, ils n'auraient jamais dû coter leur entreprise en bourse. Car une fois que votre entreprise est sur le marché, elle est à vendre, entière ou en morceaux...
Ils croient que l'entreprise est à eux. Non. Elle n'est pas à eux. Ils n'en possèdent pas même 10%. Il suffirait de deux raiders agressifs, y compris des types qui connaissent les règles du jeu, comme Carl Icahn, pour faire dégager Filo et Yang avant un an.
Donc c'est probablement pour ça que le titre ne plonge pas au-dessous de 22 $ et qu'il ne descendra guère au-delà.
Deux gars avec 10% des actions peuvent ralentir la cavalerie, mais sûrement pas l'arrêter.
Donc soit Cramer avait des infos de première main, soit il a vraiment vu juste en se basant sur la réputation d'Icahn pour anticiper.
On le saura vite, puisque le terme pour se déclarer aux actuels actionnaires et nommer un Conseil d'administration alternatif est fixé à demain soir (vendredi matin ici), en vue de l'assemblée des actionnaires qui aura lieu le 3 juillet prochain.
D'ailleurs on le comprend, le bon Carl : s'il est vrai qu'il détient déjà 50 millions d'actions (on va pas chipoter) achetées à 26 pour les revendre à 34 (faites le calcul vous-même), alors oui, ça pourrait bien devenir une question d'argent...
[MàJ - 13h45'] Lire les réactions de Narvic et de Szarah, j'ai déjà répondu en partie à Narvic en commentaire, quant à Szarah, je me donne le temps de la réflexion : son billet est extrêmement argumenté et demande une réponse qui ne l'est pas moins.
* * *
Je réagis à quelques commentaires de Szarah (notamment Le web 2.0 ne détruit pas la culture, il la nivelle au niveau mondial) et plusieurs posts de Narvic, dont l'actuelle première page ne concentre pas moins de 4 billets où il exprime, encore et toujours, sa position fortement critique sur le Web 2.0 :
Je ne soupçonne pas la moindre opération occulte derrière cet état de fait : j’y vois seulement le fonctionnement « normal » des algorithmes de recherche de ces moteurs, qui se révèlent extrêmement faciles à manipuler.
Je constate seulement l’effet sur ces moteurs de l’action bien menée d’une communauté de blogeurs biens organisés, qui écrivent tous des billets en même temps sur le même sujet et se lient les uns aux autres par hypertexte. Il n’usent ici que de leur liberté d’expression, et comme ils le font de manière collective : ils occupent à un instant donné tout l’espace de la blogosphère, selon l’image qu’en donnent ces moteurs.
Ce qui me pose problème, c’est que quelqu’un qui souhaite, à cette heure, faire une recherche sur ces moteurs pour s’informer de ce que l’on dit de cette affaire, n’en obtiendra qu’une vision outrageusement orientée et partisane.
Neutralité ? Pertinence ? Fiabilité de l’information ? Ces moteurs de recherche de blogs ne relaient rien d’autre que la clameur de celui qui crie le plus fort à un moment donné ! Et quel impact tout cela a-t-il sur l’opinion que vont se forger sur ce sujet, les internautes qui l’auront abordé au moyens des outils d’internet qui fonctionnent de cette manière ?
Le débat semble enfin s’ouvrir peu à peu sur la face noire du Web 2.0, qui échange une liberté absolue (en apparence) contre une inéquité fondamentale (dissimulée). Bientôt des manifestations en ligne sur les sites de Google, Facebook, Dailymotion et autres Myspace pour demander un partage équitable du revenu généré par l’utilisateur ?
Fort bien, mais est-ce que ça va suffire à nous protéger de ce gigantesque nivellement intellectuel par le bas que l'auteur voit se profiler dans le Web 2.0 ? (conclusion sous forme d'interrogation qui fait suite à plusieurs autres questions auxquelles j'ai tenté de fournir quelques brèves réponses...)
Donc, dans une tentative très personnelle de compenser un peu la clameur qui s'élève sur la soit-disant face noire du Web 2.0 et sur les débauches & catastrophes en tous genres qui lui sont associées, voire imputées, permettez-moi de vous donner mon point de vue en réagissant à l'une des questions soulevées par Narvic, demandant « un partage équitable du revenu généré par l’utilisateur » dans l'un de ces billets, Exploitation 2.0, qui cite Nicholas Carr traduit par Francis Pisani :
Le système économique de web 2.0 s’est révélé être dans les faits, à défaut de l’être intentionnellement, un système d’exploitation plus que d’émancipation. En mettant les moyens de production entre les mains des masses tout en leur niant la propriété du produit de leur travail, web 2.0 fournit un mécanisme extraordinairement efficace pour récolter la valeur économique du travail fourni gratuitement par le plus grand nombre et le concentrer dans les mains d’une infime minorité.
Ma première impression, au vu de l'actuelle première page de Novövision, c'est un fort sentiment de gêne, d'injustice, même, face à cette concentration délibérée d'événements et de jugements si négatifs portés sur ce qu'il est convenu d'appeler le Web 2.0, sur l'UGC, sur la blogosphère manipulée et/ou manipulatrice, etc.
Une première mauvaise impression qui s'accentue au fur et à mesure que je lis ces multiples formes de dénigrement sur ce gigantesque nivellement intellectuel par le bas et de la culture au niveau mondial, auquel se livrerait le Web 2.0, là où personnellement j'y vois un formidable instrument de vulgarisation du savoir et de démocratisation des consciences. Gratuitement, qui plus est...
J'imagine que c'est toujours la même histoire du verre à moitié vide ou à moitié plein : pourtant c'est toujours le même verre...
* * *
Donc, après le verre à moitié vide, voici ma vision du verre à moitié plein.
Que j'entame par un parallèle évident, pour moi, entre l'Encyclopédie de Diderot et d'Alembert et le Web de Tim Berners-Lee et Robert Cailliau, celui-ci pouvant être considéré comme l'aboutissement inespéré, impensable - et impensé -, d'une entreprise qui avait pour but, selon les termes mêmes de Jean Le Rond d'Alembert dans son Discours préliminaire, d'exposer autant qu'il est possible l'ordre et l'enchaînement des connaissances humaines...
L'enchaînement étant donné sur le Web par l'hypertextualité, et l'ordre restant propre aux individus selon le parcours que chacun/e se donne et/ou s'invente...
Dans une attitude active ou, pour le moins, qui devrait l'être, contrairement à la télévision, par exemple. Car si l'interactivité n'atteint pas sa plénitude sur le Web, alors c'est à désespérer de l'humanité...
Or ce n'est pas le cas : j'observe dans le Web 2.0 une telle effervescence jaillissante de l'interactivité, portée à une puissance (dans son acception mathématique, mais pas seulement) inégalée à ce jour (et probablement encore moins que demain) que j'ai d'énormes difficultés à concevoir que pour certain(e)s, ce même Web 2.0 n'est que source d'évaluations teintées de pessimisme et d'amertume. Des évaluations qui deviennent tellement battues et rebattues qu'elles ne sont plus que lieux communs, clichés, etc.
Sans prétendre à l'exhaustivité, voici quelques exemples qui me viennent à l'esprit parce que ce sont ceux que je rencontre le plus souvent :
le nivellement par le bas ;
la fausse gratuité ;
l'exploitation de l'UGC par les méchants moteurs et agrégateurs en tout genre ;
l'absence ou l'insuffisance du partage des revenus.
* * *
1. Le nivellement par le bas
De quoi parle-t-on ? Du nivellement par le bas de la culture, des consciences ? Mais voici plus d'un demi-siècle que la télé s'en charge, mes chers contempteurs ! Qu'est-ce qui marche le mieux, à la télé ? Le cul, la violence, l'argent, le pouvoir, etc. Rien de nouveau sous le soleil.
Pour autant, doit-on dire que la télé n'a jamais rien fait pour promouvoir la culture des masses ? Non, n'est-ce pas ?
Et attention, je suis moi-même extrait des masses. Issu d'une famille modeste, de parents fonctionnaires, placés plutôt bas dans l'échelle des mérites, sans biens ni aucune fortune personnelle. Qui s'est retrouvé orphelin à la rue à 18 ans. Sans aucun diplôme (niveau BEPC), sans aucune formation professionnelle, sans aspirations, sans soutien économique, sans rien, quoi.
Qui s'est fait sa propre culture en autodidacte à 100%, et qui continue sa formation permanente tout au long de la vie. Tout seul, comme un grand.
Or que m'offre le Web ? TOUT ! Sans limites. Sans argent. Si ce n'est le coût de la connexion. Je me connecte, et vogue la galère. Je navigue, libre. Je peux tout apprendre, tout découvrir, tout approfondir. Partout, sur tout, et même dans toutes les langues, si je veux. Je peux voyager, embarquer sur Google Earth, survoler des pays inconnus, m'égarer dans la voie lactée, etc.
Que l'on me dise quand, et où, depuis l'aube des temps, l'humanité a-t-elle eu un tel outil gratuitement à disposition ?
C'est tellement gigantesque comme gisement de connaissances et d'émerveillements qu'en comparaison la caverne d'Ali Baba me fait penser à un misérable bric-à-brac enfoui dans un cul-de-basse-fosse. Tiens, puisque j'en parle, testez Google, et vous avez comme premier résultat Le Rhin, de Victor Hugo, téléchargeable en un clic !
Toute la connaissance du monde, ou presque, à portée de clic. Gratuitement.
Et bien non ! Si pour vous c'est de l'exploitation, pour moi c'est de l'émancipation.
Et toutes ces critiques négatives qui éclosent à fleur de billets, de discussions, de commentaires, d'articles, etc., me font penser à un combat d'arrière-garde, à une opposition plus souvent stérile que constructive. Je n'ai jamais soutenu que tout est bon, mais je suis un peu las de voir ces discussions sans fin sur la face noire du Web 2.0.
D'où mon parallèle avec l'Encyclopédie :
La grandeur de l'Encyclopédie est précisément d'être une œuvre de combat liée aux circonstances historiques, de mettre en cause des intérêts humains profonds et véritables, de représenter un moment de la société, de l'histoire, de l'esprit, un moment de l'homme. Sa publication, étagée dans les temps, devait donc déchaîner nécessairement des passions contradictoires, devait donc être difficile. Ne déplorons pas les « traverses » qu'elles a rencontrées, elle leur doit sa grandeur. Pour quel dictionnaire se battrait-on de nos jours, et qui se battrait pour un dictionnaire ?
Préface d'Encyclopédie ou Dictionnaire raisonné des Sciences, des Arts et Métiers, édition J'ai lu l'essentiel, articles choisis et présentés par Alain Pons.
Et bien voilà ! Aujourd'hui, perpétuel recommencement de l'histoire, on se bat pour le Web. Et ce n'est qu'un début ! Le Web, c'est l'Encyclopédie à l'énième puissance presque trois siècles plus tard...
* * *
2. La fausse gratuité
J'ai barré "fausse", car la gratuité existe bel et bien sur le Web. C'est d'ailleurs ça qui gêne profondément les bonnes consciences. Surtout en France, la fameuse exception française, comme toujours !
Là encore les anglo-saxons enseignent. Eux ils se posent moins de questions philosophiques (c'est gratuit, c'est pas gratuit, c'est moitié gratuit, moitié payant, etc.), ils élaborent, retraitent les données du problème et reformulent.
Mais pendant ce temps, les franco-français continuent à râler et à se demander si au fond le Minitel, c'était pas mieux !
Tiens, vous voulez que je vous dise quelque chose : votre Minitel (je ne vis plus en France depuis le début des années 80, je n'ai donc pratiquement pas connu le Minitel), si France Télécom ne l'avait pas fourni GRATUITEMENT aux populations, jamais personne ne l'aurait acheté !!!
Donc toute l'économie qui s'est créée ensuite autour du Minitel, y compris avec le cul et le Minitel rose, s'est créée à partir d'un outil distribué GRATUITEMENT avec la bénédiction de France Télécom et de l'État français.
Un exemple à méditer lorsqu'on parle du Web 2.0, ou non ?...
Et je suis sûr qu'il y en a d'autres dans la galaxie !
Donc la gratuité fait résolument partie des intemporels de Google, mais aussi de la philosophie de Yahoo!, du monde du libre (Spip, pour n'en citer qu'un...) et de tous les acteurs du Web 2.0 qui savent que le modèle gratuit est désormais une condition sine qua non pour se faire connaître, percer et éventuellement réussir : l'histoire du Minitel qui se répète...
Il y a en outre un service supplémentaire que Google met gratuitement à la disposition de tous : Google Adsense, j'y reviendrai au point 4...
* * *
3. L'exploitation de l'UGC par les méchants moteurs et agrégateurs en tout genre
Il est clair que la stratégie de Google et des autres vise à collecter le plus d'éléments possibles sur ses utilisateurs. Au point qu'on en arrive à plus d'un millier d'événements qui déclenchent la collecte de données "privées" sur les internautes (Data transmission events).
Mais est-ce que ça vous dérange ? À moi, non. Pas plus que ça.
D'ailleurs, si ça vous dérange vraiment, il vous suffit de ne plus utiliser les services listés ci-dessus, c'est aussi simple. D'autant plus que pour tous ces services, vous allez trouver les équivalents payants. Donc pourquoi ne pas payer lorsqu'on peut trouver les mêmes services en payant ?
Si tel est selon vous le prix de l'indépendance et de la liberté, voire du respect de votre vie privée, ce serait bête de vous en priver, justement !
Mais continuer à dire que les moteurs et les agrégateurs ne pensent qu'à exploiter le contenu des autres, parce que tout ce qui les intéresse c'est de se faire du fric sur le dos des internautes sans prendre les responsabilités qui vont avec, c'est pousser un peu loin le bouchon !
D'abord il faut préciser que si quelqu'un ne veut pas être indexé, rien de plus simple. Un noindex et c'est réglé. Une demande de retrait d'index et c'est réglé. Un mail à l'agrégateur pour indiquer son refus et c'est réglé. Donc où est le problème ?
Sauf à dire que les moteurs et les agrégateurs ne serviraient à rien... Un pas que je ne saurais franchir.
Ils indexent mon contenu, et me donnent de la visibilité. Je n'en demande pas plus. Vous ne voulez pas être indexés, restez secrets. Présents sans être visibles. Autrement dit inconnus. Mais alors ne vous étonnez plus que les "algorithmes de recherche de ces moteurs (...) se révèlent extrêmement faciles à manipuler."
Ne vous étonnez plus qu’une "communauté de blogeurs biens organisés, qui écrivent tous des billets en même temps sur le même sujet et se lient les uns aux autres par hypertexte (...) occupent à un instant donné tout l’espace de la blogosphère, selon l’image qu’en donnent ces moteurs."
Donnant ainsi "une vision outrageusement orientée et partisane."
Il faut savoir ce que l'on veut ! Soit on veut avoir une voix pour gueuler plus fort que l'autre quand on juge ses intérêts menacés, soit on veut rester invisible et ... silencieux, mais après on ne s'étonne pas que d'autres occupent le terrain.
Si je travaille la visibilité d'Adscriptor, c'est bien pour tenter de me faire entendre quand j'estime que c'est le moment. Comme avec ce billet, par exemple. Ou comme dans les affaires Martinez ou DatingWatch, etc.
Avez-vous une idée de ce que certains sont prêts à dépenser pour être en première page des résultats de Google et de la valeur d'un tel positionnement ? Que ce soit en payant ou en organique (respectivement 14% contre 86% des clics) ?
Donc que je soigne mon contenu et que l'algorithme d'un moteur ou d'un agrégateur m'aide à en booster la visibilité, je ne vois là aucune exploitation mais juste un deal tacite, gagnant-gagnant.
D'autre part, les moteurs, les agrégateurs, les réseaux sociaux et les autres acteurs du Web 2.0 investissent énormément, notamment dans des infrastructures matérielles et logicielles lourdes. Donc pourquoi s'étonner qu'ils veuillent gagner de l'argent ? Et comment définir ce que serait, dans ce cas, un partage équitable du revenu généré par l’utilisateur ?
* * *
4. L'absence ou l'insuffisance du partage des revenus
Dire que ça n'existe pas serait faux. Adsense, c'est gratuit et ça rapporte ! Tous ceux qui en ont sur leur site le savent, vous n'avez besoin de rien pour mettre votre code Adsense sur vos pages, sauf le respect de certaines "règles", parfois violées par Google lui-même mais qu'il semble vouloir de plus en plus faire respecter (dans la série "faites ce que je dis, mais pas ce que je fais"...).
Il est clair que beaucoup tentent de manipuler les moteurs avec plus ou moins de réussite et de risques pour augmenter leur trafic et gagner plus.
Je peux même vous dire que de nombreux référenceurs qui ont compris comment les choses fonctionnaient préfèrent travailler d'abord pour eux, et ensuite pour les autres, à l'occasion...
Le vrai problème aujourd'hui, c'est que le seul modèle publicitaire qui marche depuis 4 ou 5 ans, le binôme AdWords - AdSense, pour être clair, n'est plus franchement adapté aux diversités des situations sur Internet, notamment au Web participatif et aux réseaux sociaux. D'où les nombreux tâtonnements pour inventer de nouveaux modèles économiques, des widgets à d'autres formes de monétisation des résultats (le CPA, par exemple), en passant par la recherche sociale et la recherche universelle, etc.
Google annonce déjà Adsense for Video, dont on mesurera mieux les enjeux lorsque l'on sait que plus de 10 milliards de clips sont visualisés chaque mois, uniquement aux États-Unis : +10 milliards !!!
Google ! Encore et toujours ! La seule chose que je peux partager, c'est qu'un peu de concurrence dans les régies serait bénéfique pour tout le monde. On attend juste les candidats. Et en Europe, je vous dis pas...
Pour être tout à fait sincère, je ne vois pas vraiment émerger de compétiteurs européens capables de jouer dans la cour des grands.
Exalead ? Bof. En tout cas pas avec ça...
Wikio ? Peut-être. La Justice permettant...
Mais en attendant que de nouveaux modèles viables et solides de monétisation ne voient le jour, avec des règles claires, je conçois difficilement que l'internaute lambda soit fondé à prétendre un partage plus équitable des revenus sur "son" contenu autre que :
une visibilité en rapport avec sa "pertinence",
un reversement modulé sur ce qui existe déjà, et
un choix si vaste et si riche de services gratuits qu'il est pratiquement impossible de tous les utiliser...
P.S. Narvic, sans rancune, j'espère. Mais dans Novövision je vois le préfixe Nov, un peu comme dans novlangue, qui serait donc censé apporter quelque chose de neuf, une nouvelle vision, justement : je la souhaiterais seulement un peu moins pessimiste...
J'en profite donc pour faire le point et vous livrer quelques réflexions sur Facebook, un sujet sur lequel j'ai moi-même beaucoup écrit.
En citant évidemment Eric, répondant ainsi à celles et ceux qui se demandent encore à quoi peut bien servir Facebook :
(C')est un outil simple qui remplace, intègre on complète, dans le désordre :
* un logiciel de messagerie
* un logiciel de chat
* un lecteur de flux RSS
* un gestionnaire de projet
* un système de recommandation
* un agenda
* un carnet d'adresses...
Il permet, entre autres :
* de créer et de gérer des groupes de discussion ou des groupes de contacts
* d'archiver des signets et des liens Internet
* de partager vos images et celles des autres
* de partager vos vidéos et celles des autres
* de partager vos sons et ceux des autres
* de découvrir vos « voisins » (ou les personnes qui vivent, étudient on travaillent autour de vous)
* d'accéder à des applications en ligne
* d'organiser des événements
* d'organiser des conférences téléphoniques
* de poser une question a la cantonade
* de mettre en scène votre identité numérique
* de créer un eportfolio
* de découvrir
* de faciliter le recrutement et la recherche d'emploi
* d'afficher une présence de l'entreprise
* de simplifier les relations presse
* de mettre en place du marketing viral et de la publicité...
Cela n’est qu’un aperçu de ce qu'on peut faire avec Facebook à très court terme. D'autres usages sont encore à inventer ou en sont à leurs balbutiements (les CRM ou l'e-learning, par exemple).
Belle entrée en matière, non ?
Maintenant, si vous voulez en savoir plus, achetez le livre, qui décrit dans le détail tout ce qui précède, et dont une chose m'a vraiment surpris d'emblée : presque toutes les captures d'écran sont en français ! Ça peut paraître normal, pourtant il me semble que la version localisée de Facebook n'était pas encore totalement prête (Facebook n'avait pas encore contactéPrimoscrib ;-), donc comment a-t-il fait, j'espère qu'il voudra bien me l'expliquer... [Début]
* * *
Venons-en aux statistiques, que j'ai relevées hier et qui donnent un total de 71 270 000 d'utilisateurs actifs (pour 109 millions de visiteurs par mois, selon Techcrunch) :
Soit, par rapport aux stats du 10 janvier, 15 379 800 utilisateurs de plus en 120 jours, pour une moyenne de 128 165 nouveaux internautes qui adhèrent au service chaque jour !!!
Une moyenne légèrement en baisse depuis le 20 octobre 2007, date de mon premier relevé, qui reste soutenue à 143 953 d'utilisateurs/jour : presque 30 millions d'utilisateurs en près de 7 mois, ou précisément 29 222 480 en 203 jours.
Une donnée corroborée par les moyennes mensuelles, puisque l'on en serait à environ 4,2 millions d'utilisateurs par mois, alors qu'on en était à presque 6 l'année dernière.
Le Chili enregistre la plus grosse progression, et la France compte 1 755 760 utilisateurs, soit +1,3 millions de nouveaux utilisateurs en 7 mois, ou une moyenne de 6 533/jour (1326220 / 203). À ce rythme, le cap des 2 millions serait franchi fin juin, début juillet...
Pour conclure, un petit exercice de prospective : dans mon premier billet de 2008, je me lançais dans la prévision suivante :
... sans trop craindre de me tromper, je peux avancer que Facebook devrait largement dépasser 100 000 000 d'utilisateurs avant la fin de l'année.
Or il reste 234 jours à la fin de l'année. Donc même en prenant la partie basse de la fourchette (128 165 vs. 143 953 nouveaux utilisateurs/jour), cela nous donnerait 29 990 610 adhérents de plus, soit +101 millions de Facebookers ! Rendez-vous en janvier 2009... [Début]
P.S. Je m'en voudrais de terminer ce billet sans mentionner les dernières rumeurs sur un nouvel intéressement possible de Microsoft pour Facebook (voire pour Powerset !) : à mon avis c'est totalement fantaisiste, et au cas où ce serait vrai, ce ne serait qu'une énorme incohérence de la part de Microsoft. Ce ne serait pas la première, je sais, mais celle-là serait particulièrement grave. J'y reviendrai dans un billet sur l'analyse de la position actuelle de Microsoft, confronté depuis plusieurs mois déjà au dilemme Facebook-Yahoo![Début]
- Le web 2.0 détruit-il l'économie de la Culture, et la Culture elle-même ? --> Non et non. L'imprimerie a-t-elle détruit l'une et l'autre ?
- Encourage-t-il le désordre moral ? Menace-t-il nos libertés individuelles ? --> Non et non. Sûrement ni plus ni moins que ce qui se passe "dans la vraie vie".
- Comment civiliser cet univers sauvage ? --> En commençant par civiliser la planète. Internet suivra...
Pour des réponses plus fouillées, rendez-vous chez Narvic.
En suivant de près le cours de l'action Yahoo! en correspondance des annonces respectives de l'OPA et de son retrait par Microsoft, j'ai constaté des choses ... bizarres.
Je vous en fais part, ensuite à chacun/e de se faire son opinion.
Sur Google Finance, vous pouvez très facilement consulter le récapitulatif historique d'une action, ce qui est bien pratique pour en extrapoler certaines stats. Dans le cas de Yahoo! :
- Sur 12 ans depuis l'introduction en bourse de Yahoo!, soit 3039 jours ouvrables, du 12 avril 1996 au 8 mai 2008, la moyenne est de 23,48 $.
- L’offre de Microsoft à 33$ représentait donc une prime de +41% par rapport à la valeur moyenne historique de Yahoo!
Car en fait, l’action Yahoo! a franchi pour la première fois le cap des 10$ le 1er juillet 1998. Donc, du 12 avril 1996 au 30 juin 1998, soit sur 560 jours ouvrables, la moyenne aura été de 2,56$!
Ce qui signifie qu'en gros, de juin 1998 à mai 2008, c'est tout juste si, en 10 ans, la valeur de Yahoo! a été multipliée par 10…
* * *
Ceci dit, la lettre initiale envoyée par Microsoft à Yahoo! est datée du 31 janvier 2008 :
Below is the text of the letter that Microsoft sent to Yahoo!’s Board of Directors:
January 31, 2008
Board of Directors
Yahoo! Inc.
701 First Avenue
Sunnyvale, CA 94089
Attention: Roy Bostock, Chairman
Attention: Jerry Yang, Chief Executive Officer
Dear Members of the Board: ...
Or la veille et l'avant-veille, les 29 et 30 janvier, près de 200 millions d'actions Yahoo! ont changé de mains (195 223 300), contre une moyenne de 27,5 millions/jour sur les 6 mois précédents (de début août 2007 au 28 janvier 2008), vs. 31,5 millions/jour sur les 61 jours ouvrables entre le 5 février et le 1er mai.
Y a-t-il des délits d'initiés derrière ces chiffres ? Allez savoir... Le fait est que ces 200 millions d'actions ont été appréciées de pratiquement 10 dollars en 1 jour : faites le calcul, il y a des chanceux qui ont gagné deux milliards de dollars entre fin janvier et début février, quel heureux hasard ! Il leur aura suffi de quelques coups de fil. Une autre forme de plus-value...
En outre, sur 10 jours ouvrables, à cheval entre l'annonce de l'OPA et celle de son retrait, c'est plus d'1,5 milliard d'actions Yahoo! qui ont changé de mains sur le marché américain, soit 110% de plus que la capitalisation globale de la société, calculée à +36 milliards $ au cours d'hier, pour un nombre officiel de 1 375 835 884 actions au 30 avril 2008.
On peut mieux comprendre pourquoi l'action n'a pas totalement chuté et comment le cours se maintient. Je reste pour ma part persuadé que Microsoft fera l'acquisition de Yahoo! avant la fin de l'année, mais ça fera l'objet d'une prochaine analyse...
Dans le premier, il reprend une thèse de Jakob Nielsen selon laquelle les lecteurs se contentent de balayer les textes, en nous fournissant les chiffres suivants :
on ne lit que 20% du texte d’une page moyenne (page testée de 600 mots) ;
nous n’avons pas le temps de lire plus de 30% des mots qui s’affichent sur l’écran ;
on ne lit 50% de l’information que si le nombre de mots est inférieur à 111 ;
plus l’auteur ajoute de mots, moins nous avons de temps à leur consacrer : 4 secondes pour chaque paquet de 100 mots en plus.
Dans le second, il remarque qu'en 3 jours Google News a indexé près de 3 000 articles sur la rupture des négociations entre Microsoft et Yahoo, 3 000 articles « sur la même chose », sans compter les blogs.
Et de citer la « commoditization of news », « le fait que la valeur des articles d’actualités, plus encore que celle des produits de consommation courante, tend vers zéro. »
En ajoutant :
Conscient de ne rien avoir à dire «de plus» ou «de mieux» je n’ai rien écrit sur le sujet.
(...)
Traiter des sujets que tout le monde traite revient, pour les médias d’information, à assécher la source qu’ils exploitent.
En corrélant son discours, je suppose, au titre du billet : Quand l’actu ne vaut rien.
Donc, je partage en partie la position de Francis. Ou mieux : je partage en partie son constat. Mais je ne partage pas sa généralisation. Sans quoi je renierais tout le travail que j'essaie de faire sur ce blog.
Dont les statistiques de fréquentation tendent, d'un côté, à prouver les assertions de Francis ; et à démontrer le contraire de l'autre.
Je m'explique. Pour appuyer son hypothèse : Quand l'actu ne vaut rien, Francis prend l'exemple de la rupture des négociations (ont-elles jamais eu lieu ?) entre Microsoft et Yahoo!
Or selon moi, dans l'absolu, il y a incompatibilité entre le titre et l'exemple, puisque tout rapprochement potentiel entre Microsoft et Yahoo! serait en réalité l'une des infos les plus importantes pour le Web depuis l'arrivée de Google, un tournant décisif pour Internet.
Lorsque l'on voit la puissance d'un Google et l'impact économique démesuré que prendra probablement Internet dans les années à venir, la naissance d'un compétiteur à la hauteur est une actu de tout premier plan.
Au passage, sur ce coup, je ne suis pas d'accord avec Didier, autre blogueur qui n'est pas avare en analyses : je ne vois aujourd'hui aucune pluralité sur Internet, pas même un semblant, mais uniquement l'hégémonie toujours plus puissante et envahissante de Google.
Donc, oui, un rachat du dauphin par son suivant pourrait conduire au cartel ou à l'oligopole, mais ce serait déjà un plus par rapport au monopole actuel. On a encore très présent dans l'informatique de bureau et les suites bureautiques ce que le monopole Microsoft signifie : des dizaines centaines de millions d'utilisateurs captifs...
Et encore, avant qu'il y ait duopole, encore faudrait-il qu'il y ait une intégration digne de ce nom entre M$ et Y!, ce qui serait loin d'être acquis...
Une actu de tout premier plan, donc. Alors comment peut-on en arriver au constat que cette actu ne vaut rien ?
Je n'ai qu'une réponse : ce n'est pas l'actu en elle-même qui ne vaut rien, mais la façon dont elle est traitée. Ce qui fait une grande différence...
Car si vous prenez les 3 000 news, il est faux et simplificateur, voire caricatural, de dire que toutes ne valent rien parce que toutes répètent la même chose. Ce n'est pas vrai. Et si vous posez comme hypothèse - vraisemblable - qu'il y en a au moins 5% qui tentent de sortir du lot dans leur manière de traiter l'info, ça fait déjà 150 articles et billets (Google News n'indexe pas que les journaux, mais aussi certains blogs, ... pas Adscriptor, c'est dommage ;-) dont l'on peut aisément supposer qu'ils donnent un plus à leur lecteur.
Et je peux vous dire, moi qui passe une bonne partie de mon temps à éplucher les infos auprès des meilleures sources qu'elles existent, et de plus qu'elles sont assez faciles à repérer.
Donc il est normal qu'une actu comme un mariage Microsoft-Yahoo! fasse couler de l'encre, ce n'est pas pour rien que j'y ai déjà consacré plus d'une trentaine d'analyses - et je n'ai pas fini... -, ou, pour le moins, j'espère que mes billets seront considérés comme tels : des analyses.
C'est là où j'en arrive à la partie des stats : la fréquentation d'Adscriptor oscille entre 200 et 300 visiteurs par jour, très exactement 287 sur les 7 jours écoulés, avec un temps moyen de permanence - et donc de lecture - de 2 minutes 03''.
Ce qui veut dire, d'une part, que les analyses n'intéressent pas grand monde, en tout cas moins que certaines "actus" de grande consommation...
De l'autre, que les gens qui veulent s'informer sont prêts à prendre le temps de le faire, et par conséquent que les chiffres de Jakob Nielsen ne sont pas généralisables.
Car j'ai la faiblesse de croire que cette moyenne de temps de lecture, qui n'est jamais descendue en dessous d'une minute depuis le début de ce blog, pour autant que je m'en souvienne, est une reconnaissance implicite de la plus-value d'Adscriptor : ne pas faire du réchauffé en essayant de fournir des analyses et des infos utiles à mieux comprendre les évolutions du Web.
Analyses subjectives, certes, que certains pourront trouver mauvaises, voire nulles à chier, mais analyses quand même. Sinon ça sert à quoi, que Dugros il se décarcasse ?
La conclusion de tout ça : presque personne n'est prêt à gérer tous ces changements, tellement ils sont rapides, porteurs de ruptures et déstabilisants. On le voit bien dans toutes les industries, presse, télévision, musique, etc.