Pages

dimanche 12 août 2007

Web 2.0 vs. Web 3.0, la suite...


Il y a plus d’un an déjà, je tentais une réflexion personnelle sur l’évolution du Web 2.0 vers le Web 3.0, d’abord sollicité par Jean-François Ruiz.

Ce questionnement reste sous-jacent dans de nombreux débats que j’observe ici et là sur le Web, mais il a été relancé ces derniers jours par les déclarations d’Eric Schmidt, répondant à un auditeur qui lui demandait de définir le Web 3.0.

Les déclarations du CEO de Google ont suscité pas mal de polémiques sur sa vision du Web 2.0 (un concept marketing) et sur ses prévisions concernant le Web 3.0.

C’est ici qu’intervient Nicholas Carr, le « poil à gratter » de Didier Durand, dont le billet reprenant et analysant l’épisode à peine décrit m’a enthousiasmé. Je lui ai donc demandé l’autorisation de le traduire, et il me l’a gentiment accordée.

Son billet s’intitule Qu’est-ce que le Web 3.0 ?, et je commence la traduction à partir de « Web 3.0 is all about… » :
… le Web 3.0, c’est la simplification et la démocratisation du développement logiciel, avec les internautes qui commencent à puiser dans les outils et les données essaimés dans le « cloud », le « nuage Internet », pour concocter des applications personnalisées qu'ils partagent ensuite « viralement » avec leurs amis et collègues. Selon Schmidt :
Ma prévision, c’est qu’au final le Web 3.0 sera considéré tel un ensemble d’applications modulaires [ayant en commun] un certain nombre de caractéristiques : ce sont des applications légères ; les données sont éparpillées dans l’Internet ; les applications peuvent être embarquées sur n'importe quel dispositif, PC ou portable ; elles sont extrêmement rapides et personnalisables ; en outre elles sont distribuées de façon essentiellement virale, à savoir par les réseaux sociaux, le courriel. Plus besoin d’aller au magasin pour les acheter. C’est un modèle applicatif très différent de que nous connaissions jusqu’à présent dans l’informatique … probablement destiné à s’étendre, s’étendre. Les barrières à l'entrée sont très basses. La nouvelle génération d’outils annoncée aujourd'hui par Google et d'autres sociétés les rendent relativement faciles à concevoir et utiliser ; [elles] résolvent beaucoup de problèmes et fonctionnent sur tout et partout.
Voici donc – quelle surprise ! - une vision d’informatique en réseau qui cadre parfaitement avec les intérêts commerciaux et technologiques de Google, opposée aux applications propriétaires et aux entrepôts de données (sauf lorsqu’elle les contrôle) juste parce que les sites et les applications fermés contrastent avec les trois principaux objectifs de Google, omniprésents et interdépendants (dixit Didier Durand) :
  1. nous faire passer la majeure partie de notre vie en ligne
  2. rendre cette actitivité virtuelle traçable et transparente
  3. sponsoriser les services gratuits utilisés lors de cette activité par de la publicité
(« En ligne » englobe tout ce qui est médié par Internet, et pas seulement la face apparente des choses qu’on peut visualiser sur un écran de PC.)

En d’autres termes, cela revient à dire que l’ensemble des applications et des données sont tout simplement complémentaires au cœur de métier de Google – la pub –, et par conséquent que Google a tout intérêt à détruire les barrières - économiques, technologiques ou légales – qui brident les applications logicielles et les données. Et presque tout ce que fait la société, de la construction de ses centres de calcul à l’achat de fibre optique pour déployer le wi-fi gratuit, en passant par son combat contre les droits de propriété intellectuelle afin de soutenir la communauté open source et rendre gratuitement disponibles l'information et les applications logicielles, tout cela tend à l’élimination des barrières.

Dans la culture du Googleplex, l’évolution des générations Web doit ressembler à quelque chose du genre :
  • Web 1.0 : le Web comme une extension des disques durs de nos PC (et de nos Mac...)
  • Web 2.0 : le Web comme une plateforme applicative complémentaire aux systèmes d’exploitation et aux disques durs
  • Web 3.0 : le Web comme l’informatique universelle en grille destinée à remplacer systèmes d’exploitation et disques durs
  • Web 4.0 : le Web comme intelligence artificielle complémentaire à la race humaine
  • Web 5.0 : le Web comme intelligence artificielle se substituant à la race humaine
Une théorie élégante et branchée, certes, mais il y a un hic. La définition du Web 3.0 proposée par Schmidt semble être en conflit avec la définition dominante, qui représente le « Web 3.0 » comme un synonyme de ce qu’on avait coutume d’appeler (aujourd’hui encore, d’ailleurs) « le Web sémantique ». Vu sous cet angle, le Web 3.0, c’est la création d’un langage plus riche et significatif pour faire communiquer les machines entre elles sur Internet, et leur permettre de mettre en œuvre de nombreuses fonctions interprétatives actuellement accomplies par les personnes, avec en perspective des niveaux d'automation jamais connus jusqu’alors.

Dans la culture « Web sémanticienne », l’évolution des générations Web doit ressembler à quelque chose du genre :
  • Web 1.0 : le Web où les personnes parlent aux machines
  • Web 2.0 : le Web où les personnes parlent aux personnes (par le biais des machines)
  • Web 3.0 : le Web où les machines parlent aux machines
  • Web 4.0 : le Web comme intelligence artificielle complémentaire à la race humaine
  • Web 5.0 : le Web comme intelligence artificielle se substituant à la race humaine
Donc, s’il est vrai que ces deux visions se rejoignent et finissent par nous faire confluer vers un monde meilleur, où les machines externalisent l'universel
slavesourcingcrowdsourcing de l'intelligence et du travail humains, la confusion qui règne encore sur la nature du Web 3.0 reste problématique.

Voici donc où nous en sommes, en 2007, à mi-chemin de ce parcours, sans avoir su dégager une définition consensuelle décente du Web 2.0 et avec des définitions encore contrastées de la prochaine génération Web.

Or sont-elles vraiment si contrastées ? Je pense plutôt que le conflit apparent entre ces définitions demeure superficiel, résultant des différences de visions adoptées par Schmidt (une vision centrée « applications ») d’un côté, et par les Web sémanticiens (une vision centrée « communications ») de l’autre.

Donc, juste pour rendre service à la communauté, laissez-moi mettre mon masque de Tim O'Reilly et vous offrir ma propre définition du Web 3.0, assez large pour y fourrer côte à côte la définition Web sémanticienne traditionnelle et celle des mashups dopés aux stéroïdes d'Eric Schmidt :
« Le Web 3.0, c’est la désintégration des données numériques et des logiciels dans des composants modulaires qui, grâce à l'utilisation d’outils simples, peuvent être réintégrés à la volée dans de nouvelles applications ou fonctions, autant par les machines que par les personnes. »
Voilà. Bourrez tout ça dans votre Yahoo pipe et tirez-vous une bouffarde.
Excellent, je vous dis ! Merci encore à Nicholas Carr. :-)


, , , ,

5 commentaires:

d.durand a dit…

Salut Jean-Marie,

renvoi vers toi fait dans mon dernier billet
a+
didier

Jerome Paradis a dit…

Super les définitions du Web 4.0 et 5.0. Là au moins, il y a concensus!

Jean-Marie Le Ray a dit…

Jérôme,

Ça me fait penser à quelques-unes des diapos de cette présentation...
J-M

Guillaume a dit…

Bonjour,

merci pour cet article, c'est très clair et pertinent.
Je trouve la définition de Schmidt tellement peu ambitieuse par rapport à celle des web sémanticiens.

J'ai écris un article sur le web semantique sur
acidweb.fr avec un graph qui met en parallèle l'évolution technologique et l'utilisation du web, depuis les débuts de l'informatique jusqu'au web4.0, estimé entre 2020 et 2030. Le graphique est une bonne synthèse , très visuelle.

fxbodin.com a dit…

Merci Jean-Marie pour cet article qui emprunte aux fables ce qu'elles ont de sérieux : un regard en perspective.

Un reproche : tant qu'à écrire des articles passionnants, pourquoi les faire si longs ? Tu ne veux pas faire une version Twitter ? Au moins, j'aurais le temps de les lire tous en entier ;-)