jeudi 31 juillet 2008

Mediaset vs. YouTube, Berlusconi vs. Google


L'info a fait le tour du Web à la vitesse Internet, communiqué de presse officiel ici, version française .
Voyons maintenant quelques approfondissements venant directement d'Italie, puisque c'est de là que ça part et que la plainte a été déposée devant le Tribunal civil de Rome (auprès duquel je suis "expert assermenté", soit dit en passant).
Et puisqu'on parle d'experts, l'expertise pour le compte de Mediaset a été effectuée par Matteo G.P. Flora, qui décrit ainsi le mandat qui lui a été confié :
- deux mois de travail
- un crawling qui a généré 185 Go de trafic
- les fameuses 4 643 preuves (les extraits vidéos appartenant à Médiaset)
- 9 DVD remplis de preuves à charge
- autres recherches et recoupages afférents
- un rapport d'expertise de 5 260 pages et pièces jointes (dont 243 pages d'analyses) (cf. la quinzaine de volumes du rapport ci-dessous)


Je serais curieux de lire la plainte, mais en furetant sur le Web italien à la recherche d'infos, je n'ai pas encore compris la corrélation entre les 325 heures de vidéos reprises sur YouTube et le calcul de la perte pour le groupe, "évaluée" à 315 672 jours (865 siècles !!!) de visionnage de la part des téléspectateurs.
Sans compter le manque à gagner des recettes publicitaires...
Ceci dit, le dossier est confié aux avocats Gaetano Morazzoni, Vincenzo Sangalli, Alessandro La Rosa et Stefano Previti, ces deux derniers du cabinet légal de Cesare Previti (dont Me Stefano est le fils), ami "intime" de Silvio Berlusconi (voir par exemple le scandale Mondadori), qui reprend du service pour Mediaset depuis un certain temps déjà, notamment contre Marco Travaglio, attaqué de tous les côtés...
D'ailleurs, pour en revenir à YouTube, si vous comprenez l'italien, je vous suggère vivement de regarder les vidéos de Travaglio, c'est édifiant...



Au moins, quand on lit Gomorra on sait à quoi s'attendre. Mais quand on lit les ouvrages de Travaglio sur les dessous (de table) de la politique italienne, on se dit vraiment qu'en Italie les politiques sont encore plus ripoux que la mafia... Voir sa présentation de Mani Sporche (par opposition à Mani Pulite, Mains sales vs. Mains propres...) :



Naturellement, en voyant que tout ce matériel est disponible et librement accessible en quantité sur YouTube (voir aussi le blog de Beppe Grillo), on comprend pourquoi Berlusconi en a après Google (il vient d'ailleurs de gagner dans une affaire proche opposant Telecinco à YouTube, et c'est sûrement pas sur Rivideo qu'on va retrouver les mêmes clips...). Et on comprend aussi pourquoi il attaque en faisant appel à Previti, après tout, ça reste une affaire de familles !


Partager sur Facebook
, , , ,

mardi 29 juillet 2008

Knol : Google juge et partie...

Knol : Google juge et partie...

Knol est généralement présenté comme une encyclopédie alternative à Wikipédia, avec trois différences essentielles : un auteur unique et non anonyme pour chaque article, plus la possibilité d'être rétribué via les AdSense.

En revanche, comme sur Wikipédia, les liens sortants sont en nofollow. Autres spécificités ici et .

Donc, Knol : Google juge et partie, pourquoi ?

Nous avons vu récemment plusieurs exemples des chiffres astronomiques de Google, qui affiche 4,3 milliards de pages vues par jour sur l'ensemble de "son" réseau de contenu, comprenant « aussi bien les milliards de pages de résultats générées par le moteur de recherche que les centaines de milliers de "partenaires" - sites et pages Web, blogs, forums, réseaux sociaux, etc. -, sur lesquels s'affichent les pubs AdSense/AdWords » :
Il n'existe pas plus grand réseau de publicité contextuelle au monde.
Or le point commun de ce réseau, jusqu'à présent, c'était que tout le contenu servant d'inventaire était créé par des tiers, hors de Google.

Une donnée fondamentale qui change avec Knol !

Avec Knol, Google crée son "propre contenu" - quand bien même rédigé par des nègres comme le soussigné -, destiné à être indexé par ... Google !

Ce que Wired qualifie de conflit d'intérêt. Tout simplement parce qu'il est facile, voire "naturel" pour Google, de favoriser le contenu maison, en le boostant dans les premières pages de recherche.

Le service est encore trop jeune pour en juger, mais des premières mesures semblent indiquer qu'environ un tiers de l'échantillon se retrouve dans la première page de résultats de Google, une performance impossible à réaliser pour tout autre site qui ne serait pas ... Google, justement !

Donc, la question est : Google devient-il un fournisseur de contenus ? Pour Jason Calacanis, la réponse est évidente : OUI !

Et au-delà de son intérêt dans Mahalo, dont le modèle économique est touché de plein fouet par Knol, son article soulève de nombreux points intéressants, sur lesquels il vaut la peine de s'interroger.

1. Il compare l'écosystème de recherches de Google au système d'exploitation du Web, de facto, dont tous les webmasters doivent tenir compte et dans le cadre duquel tous les sites sont considérés comme des applications !

2. Il rappelle une interview donnée l'année dernière par David Eun, responsable Google pour les partenariats, dans laquelle il déclarait :
La plus grosse erreur d'appréciation que peuvent faire les producteurs de contenus, c'est de craindre et de croire que Google aspire à devenir un opérateur média qui produirait lui-même ses contenus en compétition avec les leurs. C'est une erreur d'appréciation majeure. Nous ne produisons pas notre propre contenu, nous nous considérons plutôt comme une plateforme sur laquelle nos partenaires placent eux-mêmes les contenus qu'ils produisent.

The biggest misconception is that they (content companies) fear Google has aspirations to become a media company, meaning that we would produce and own content that would compete against theirs. That's a major misconception. We don't produce our own content. In fact, we see ourselves as a platform for our partners that do.
3. Entre les lignes, il dit que le problème n'est plus celui de la "propriété" du contenu mais de sa diffusion et de la capitalisation de l'inventaire ainsi créé, raison pour laquelle même si Google imagine qu'il n'est pas fournisseur de contenus puisque ceux-ci ne lui appartiennent pas, c'est totalement faux, car "ça ne marche pas comme ça" (Google believes because they don't own the content that they are not in the content business. Nice try, but no, that's not how it works).

4. Google étant une la source de trafic majeure de nombreux sites (50% du trafic de Digg, 85% pour About.com, 70% pour Wikipédia, etc.), et donc le passage quasi-obligé entre vous et ces sites, il ne gagne de l'argent qu'au deuxième clic, une fois que l'internaute arrive sur ces sites et clique sur les pubs. Des sites qui dépendent du trafic de Google et vont donc se retrouver en concurrence avec Google dès lors que celui-ci mêlera ses propres résultats aux autres dès la première page.

5. Calacanis observe en outre que la création de contenus ne s'arrête pas aux textes mais implique également la vidéo, puisque Google a récemment signé un accord avec un réalisateur connu pour produire des clips vidéo destinés à être diffusés en exclusivité sur YouTube. Une donnée à mettre en rapport avec la loi de Pareto appliquée à la vidéo sur Internet, où 96 % des revenus sont générés par les 58% de vidéos streamées "professionnelles", contre seulement 4% des recettes pour les autres.

En conclusion, comme il le constate justement, tout ça n'est pas un problème jusqu'à ce que ça devienne "votre" problème (You get the idea, it's not an issue until it's your issue).

Alors, Knol : Google juge et partie, à vous la réponse...


Partager sur Facebook


, , , , , , , ,

lundi 28 juillet 2008

Microsoft - Yahoo! : Ballmer and blah-de-blah-de-blah

Ainsi traduisible en français : Ballmer et blabla et blabla ou de-blah-de-blah-déblatérer...

* * *

HIER

Extrait : ... Microsoft était déjà sur Internet à une époque où Google était encore dans les limbes. En 1995, Microsoft proclamait fièrement en page de couverture d'un des nombreux livres consacrés à Windows :


Find out how to get the most out of Windows 95's exciting new Internet tools (du genre : découvrez comment tirer le meilleur parti des nouveaux fabuleux outils Internet que Windows 95 met à votre disposition). Y a de quoi rêver...

Treize ans ont passé, mais ça vaut son pesant d'or avec le recul ! Et je vous passe le détail de la centaine de pages dédiées à Internet, sur 8 chapitres S.V.P., dont le premier s'intitule fort prophétiquement : « The Tough Truth about Internet Searches » (La dure vérité sur les recherches Internet). Ça ne s'invente pas !

- - -

En parallèle, Yahoo! a perdu TOUTES les opportunités sur la même période, dans un acharnement à louper le train - non pas 1 fois mais 10, 20 ou 100 fois - qui n'a d'équivalent que l'entêtement du management à prendre TOUTES les mauvaises décisions au fil des ans ! D'où le déclin durable de l'action Yahoo!

* * *

AUJOURD'HUI

Entre-temps, qu'a fait Microsoft en ligne depuis ? Rien ! Ou plutôt si : un désastre, aboutissant à...

- 617 millions de pertes pour les activités en ligne en 2006-2007, le double en 2007-2008 ! Une position financièrement intenable qui ferait mettre la clé sous la porte à n'importe quelle société, sauf Microsoft, grâce aux bénéfices gigantesques dégagés dans ses autres secteurs d'activité.

- des déclarations fracassantes autour d'un plan "10, 20, 30, 40" aussi hypothétique que fantaisiste :
  1. 10% des pages vues, contre 6% actuellement ;
  2. 20% du temps passé par l'internaute sur les sites de Microsoft, contre 17% actuellement ;
  3. 30% des parts de marché dans la recherche, contre moins de 10% actuellement ;
  4. 40% des parts de marché dans la publicité en ligne, contre 6% actuellement.
Laissons tomber les points 1 et 2, mais quelques précisions sur les 3 et 4 :

3. Actuellement moins de 10% des parts de marché dans la recherche : en réalité c'est entre 6 et 7%, contre +12% en 2006, voire bien davantage selon d'autres analyses ! Donc avant de vouloir gagner trois fois plus, il faudrait peut-être commencer par ne pas perdre deux fois moins...

4. Pour progresser de 6% à 40% sur un marché monopolisé par Google, la seule solution passe(ait) obligatoirement par Yahoo!

- une gestion catastrophique de l'acquisition (manquée) de Yahoo!, probablement bien davantage pour des conflits de personnalité que pour des questions d'argent.

Quant à déclarer à qui mieux-mieux que l'acquisition de Yahoo! serait tactique et non stratégique (cf. présentation - 3,3 Mo)


elle ne fait que refléter l'embarras de Ballmer, qui préfère jouer sur les mots plutôt que d'avouer n'avoir pas la moindre idée de la manière dont Microsoft pourra raccrocher Google demain, qui s'éloigne et creuse de plus en plus l'écart au fil des jours.
Petite parenthèse sur l'aspect "tactique" vs. "stratégie" : si Ballmer était prêt à dépenser presque 56 milliards de $ en janvier 2007 pour l'acquisition de Yahoo! et tout juste 10 milliards de moins un an plus tard au nom d'une simple "tactique", on se demande jusqu'où ils iront chez M$ lorsqu'ils déploieront leur véritable "stratégie". Mais là encore, et toujours, on connaît celle de Google, clairement établie, tandis que Microsoft cherche encore une véritable stratégie tactique pour sa présence en ligne. Et ce depuis déjà plus de 13 ans, exactement comme Yahoo!

Avec l'acquisition manquée en point d'orgue. Car j'aimerais qu'on m'explique au nom de quoi Microsoft a retiré son offre au dernier moment, alors que pour un dollar de plus l'acquisition était pratiquement finalisée, et tout ça après un an et demi d'acharnement ? Et si Ballmer croit vraiment qu'il peut se passer de Yahoo! pour arriver à ses fins (voir plus haut le fameux plan "10, 20, 30, 40"), alors c'est pire que ce que je pensais...

Comment ? Vous dites ? C'était une simple tactique ! Ah ! OK. Alors comme ça tout est clair :-)
- aucune identité bien définie en ligne : Microsoft, MSN, Live.com, Internet Explorer ? Qui fait la différence ? Quelle est la différence ? Sur le Web, Google c'est Google, Yahoo! c'est Yahoo!, Microsoft c'est un magma de produits-services sans marque unique, et donc, sans promesse unique, sans mission clairement identifiable : Google s'est donné une mission, Yahoo! idem, Facebook et d'autres encore, mais Microsoft :
“(O)ur mission and values are to help people and businesses throughout the world realize their full potential.”
Aider les personnes physiques et morales partout dans le monde à réaliser leur plein potentiel”, ça veut dire quoi ?

Qui trop embrasse mal étreint...

* * *

DEMAIN

Après l'annonce du départ de Kevin Johnson, Steve Ballmer décide une réorganisation visant à séparer Windows/Windows Live de ses activités en ligne. Déjà, ça commence bien, Windows Live n'aurait donc rien à voir avec Live.com, c'est clair comme de l'eau de roche !

Très exactement le contraire de la "synergie" de 2005, lorsque Microsoft avait fusionné Windows et les services en ligne, pour mieux répondre aux exigences des utilisateurs, aux dires de Ballmer (By bringing together the software experience and the service experience, we will better address the changing needs of our customers' digital lifestyles and the new world of work.)

Et il déclare dans la foulée que la révolution Internet est à venir !

Fort bien. Mais si le mieux que Redmond peut faire est du genre BrowseRank, Live Search Cash Back ou mettre Live Search sur Facebook, alors il est probable - et même certain - que cette révolution se fera sans Microsoft. Et quoi qu'il en soit, Steve Ballmer est-il le meilleur atout de la société pour relever les défis de demain ? J'en doute fortement.

Lui, c'est hier et aujourd'hui plutôt que demain (quant à savoir combien de temps durera aujourd'hui...) !

Pendant qu'au fil des jours, Google s'éloigne et creuse de plus en plus l'écart...


Partager sur Facebook

, , , , , ,

dimanche 27 juillet 2008

ECHOS : le projet NanoDataCenters de l'Union européenne

ECHOS : le projet NanoDataCenters de l'Union européenne

Dans son septième programme-cadre (7e PC), l'Union européenne a lancé le 1er mai dernier le Projet NanoDataCenters :
Ce projet propose une solution radicale au service des données et à leur hébergement dans l'Internet du futur. L'architecture actuelle des données est centrée réseau, avec un contenu stocké dans des centres de données directement reliés aux dorsales Internet. Cette approche a plusieurs inconvénients, parmi lesquels les aspects plus critiques pour les centres de données sont la complexité de leur déploiement, leur consommation d'énergie et leur manque d'évolutivité. En rupture totale avec l'approche traditionnelle, le projet ECHOS choisit d'innover avec la mise en place de ce que nous appellerons des nano-centres de données, qui seront déployés dans des dispositifs à la périphérie du réseau (ex. home gateways, set-top-boxes, etc.), accessibles via une nouvelle infrastructure de communication P2P.

Une évolution disruptive pour résoudre la plupart des inconvénients des solutions commerciales actuelles, afin de permettre le déploiement d'applications interactives de prochaine génération. Toutefois, les défis sont nombreux, vu que les données devront pouvoir être accessibles et assemblées à la demande de façon dynamique, en temps réel. Le projet ECHOS assurera la conception et le développement de l'architecture communicationnelle des nano-centres de données, conjuguée à des mécanismes incitatifs et de sécurisation. Le but étant de démontrer qu'ECHOS est une alternative scalable et bon marché aux modèles actuels de service et d'hébergement des données. L'architecture ECHOS sera intégralement mise en œuvre à travers la spécification et l'implémentation des box ECHOS. La gestion et le partitionnement efficaces de ces ressources (box ECHOS) seront assurés par des technologies de virtualisation.

Deux types d'applications interactives - jeux multijoueurs et vidéo à la demande - seront conçues comme preuves de concept. Un banc d'essai à grande échelle sera déployé pour évaluer les avantages et les performances d'ECHOS, dont l'architecture sera soumise aux organismes de normalisation et aux groupes de discussion compétents sur la conception de l'Internet du futur. Ce projet, en phase avec l'agenda stratégique de recherche (SRA) de l'initiative NEM (Network and Electronic Media Platform), devrait aboutir à la commercialisation de box ECHOS. Il en résultera un avantage concurrentiel pour l'industrie et les PME.
Le projet, qui devrait coûter 5 millions d'euros (financé à hauteur de 3 millions d'euros par l'UE, et le reste par les partenaires), est emmené par Thomson et durera 3 ans jusqu'à fin avril 2011.

Les enjeux sont gigantesques, vu les défis posés par les centres de données et les réseaux P2P actuels.

Ceci dit, si l'UE réussit à gagner son pari, cela pourrait rééquilibrer un peu la suprématie proche de l'hégémonie des américains dans ce domaine, avec Google en tête de liste. Ne préconisaient-ils pas chez Verisign de passer au P2P, si l'on veut faire face aux fleuves de données prêts à déferler d'ici peu, notamment avec le déploiement de l'Internet des choses ?

Selon Verisign, rien que
les sites Web en .COM reçoivent actuellement plus de 35 milliards de requêtes journalières, un niveau qui devrait passer à 100 milliards de requêtes/jour dès 2010, avec une progression qui double tous les 18 mois depuis 2000.
Ça en fait du trafic en perspective ! Via Andrew Hendry et Janko Roettgers.


Partager sur Facebook

P.S. Lien connexe : The Future of the Internet (PDF, 2 Mo) (site dédié)

, , , , , ,

vendredi 25 juillet 2008

L'index de Google : 1000 milliards de pages !

L'index de Google : 1000 milliards de pages !

C'est pas moi qui le dis !

Moi je dis juste : Google superlatif !

1000 milliards de pages ! Symbolique.

D'un autre côté, si on considérait dès 2001 que le Web profond (Deep Web) en contenait déjà 550 milliards, alors on se dit que Google a bien avancé, notamment au niveau de l'indexation des contenus dynamiques des bases de données ou des formulaires, mais n'est pas au bout de la tâche !

Car même si Google déclare :
We don't index every one of those trillion pages -- many of them are similar to each other, or represent auto-generated content similar to the calendar example that isn't very useful to searchers.
... pour savoir que les pages sont dupliquées, il faut déjà les avoir crawlées : « Ce graphe de 1000 milliards d'URL est semblable à une cartographie qui aurait 1000 milliards de nœuds » (This graph of one trillion URLs is similar to a map made up of one trillion intersections.) !!!

Et d'ajouter dans la foulée :
But we're proud to have the most comprehensive index of any search engine, and our goal always has been to index all the world's data.
Tout ça bien qu'il semble encore avoir quelques problèmes sur le Web profond, que ce soit délibéré ou non...


Partager sur Facebook

P.S. En outre, quand on pense à la techno derrière, on se dit que c'est pas demain la veille que le BrowseRank va rattraper le PageRank !

Même s'il y en a qui auraient besoin de plus que ça pour être impressionnés :
Here’s a trillion: 1,000,000,000,000

Here’s a googol: 10,000,000,000,000,000,000,
000,000,000,000,000,000,000,000,000,000,000,
000,000,000,000,000,000,000,000,000,000,000,
000,000,000,000,000.

When Google can google a googol URLs at once, then I’ll be impressed.
Excellent !

, , , , , ,

Google PageRank vs. Microsoft BrowseRank

Google PageRank vs. Microsoft BrowseRank

Je viens de lire sur Search Engine Land que Microsoft attaquerait Google superlatif sur la pertinence, en essayant de faire mieux que le PageRank avec le BrowseRank !!!

En gros, un algorithme de classement qui analyserait le comportement de navigation via l'historique du navigateur de l'internaute (est-ce que cela limiterait l'analyse à ceux qui utilisent Internet Explorer ?), et où les utilisateurs voteraient pour l'importance des pages...

On dirait que cela se rapproche de la recherche orientée Digg selon Google...

En comparant les algorithmes PageRank, TrustRank et BrowseRank, l'étude de Microsoft donne l'exemple de classement suivant :


Davantage d'explications ici (en) et (fr). J'ai l'impression que l'info va faire couler beaucoup d'encre, j'aurai sûrement l'occasion d'y revenir...

Mais est-ce cela dont Ballmer a déclaré hier devant les analystes : « But that’s the one thing I’m not going to talk about » ? Ce serait bien possible !



Partager sur Facebook

P.S. Je me demande pourquoi personne ne veut de mon SafeRank :-)

, , , , , ,

Wikio, un sondage surprenant !

Wikio, un sondage surprenant !

Paru sur PCInpact, les résultats de ce sondage sur Wikio sont pour le moins surprenants !


Sur près de 2 000 votants, 52,69% déclarent absolument ne pas savoir de quoi il s'agit, auxquels s'ajoutent presque 800 autres qui ont un avis pas franchement enthousiaste (un portail d'info parmi les autres, pas trop amateur, sais pas trop de quoi on cause, gadget parfaitement inutile...).

Seuls 58 votants (3,25%) déclarent que « Wikio est une référence incontournable du Web ».

Et les +130 commentaires sont à l'avenant.

C'est d'autant plus bizarre qu'on peut considérer PcInpact - dédié aux actualités informatique et multimédia - comme un site de geeks, dont il est vraiment difficile de penser qu'autant de visiteurs ignoreraient Wikio.

J'ai eu quelques échanges avec Nicolas Patte, auteur du sondage, auprès de qui je me suis étonné de la teneur des questions, puisque :
...sur 6 questions, mise à part la première, les 5 suivantes ont plus ou moins une connotation négative.
Donc vu qu'il s'agit d'un questionnaire à réponses obligées, ça laisse peut-être moins de chances pour dégager une opinion moins orientée.

Par exemple, sur une échelle de 5 questions, j'aurais choisi une formulation de ce genre :

1. très positive
2. positive
3. neutre
4. négative
5. très négative
Il m'a répondu en reconnaissant :
...une inclinaison légèrement négative du sondage, quoiqu'il ne soit pas forcément très loin de l'échelle logique que vous évoquez ("référence incontournable"/très positif, "j'y jette un oeil"/positif, "pas amateur"/neutre moins, "entendu parler"/neutre moins moins, "ignore absolument"/négatif, "gadget inutile"/très négatif). J'aurais pu sans doute faire un item avec "pas amateur" et "entendu parler" en neutralisant davantage, vous avez raison.

Reste, comme vous le dites, que la tendance lourde et les commentaires (plus de 100 à cette heure) sont très étonnants.
Nicolas, que je cite en ayant son accord, y voit également une analogie avec « l'histoire du cordonnier mal chaussé », où Wikio ne parvient pas, au final, « à bénéficier de ce qui fait sa raison d'être sinon son business model : le buzz », et où « le "buzzmaker" n'en génère aucun pour lui-même ».

J'ai personnellement une conclusion un peu différente, tout à fait subjective, en pensant que les résultats franchement peu flatteurs de ce sondage résonnent davantage comme un désaveu de Wikio plutôt que comme une ignorance généralisée de l'audience de PCInpact pour le portail de Pierre Chappaz.

L'une des raisons de ce "désengouement" devant probablement être recherchée dans la perception qu'ont beaucoup des commentateurs sur l'absence de valeur ajoutée du site.

J'ai déjà tenté plusieurs analyses de Wikio, notamment ici et , mais il me semble que ce sondage, même s'il est clair qu'il est à prendre avec les précautions d'usage, pose avec force cette question :
Quelle est aujourd'hui la valeur ajoutée de Wikio ?

Si Pierre ou quelqu'un de son équipe me lit, j'aimerais bien connaître leur opinion sur ce sondage et leurs réponses à la question ci-dessus.


En attendant, je pose cette même question au lectorat d'Adscriptor, à laquelle j'essaierai moi-même de répondre dans un prochain billet.



Partager sur Facebook

,