Il s'agit non pas de la 21e place de marché dédiée à la traduction, mais bien de la première place de marché du 21e siècle, une véritable révolution en perspective pour les traducteurs du monde entier. Est-ce que cette révolution sera aussi une évolution ? Nous verrons à l'usage...
En attendant, laissez-moi vous présenter le service. Baptisé Google Translator Toolkit, c'est selon moi le préalable à la véritable place de marché, qui permettra de mettre en contact clients et traducteurs sans aucun autre intermédiaire, sinon Google qui offrira gratuitement le poste de travail et les outils traductionnels au milieu. Voyons donc de plus près cette boîte à outils.
vous arrivez de suite via votre compte Google sur la page du Centre de Traduction de Google :
puis de là à votre espace de travail, basé sur Google Docs comme nous l'expliquent fort bien (en anglais) Alex Chitu et Tony Ruscoe (via TomHtml, le chenapan ! :)
Vous pouvez alors charger un fichier de votre ordi, traduire une page Web, une page Wikipedia ou un Knol :
Or comme pour l'instant il n'est possible que de traduire de l'anglais vers les autres langues et pas vice-versa, j'ai chargé un de mes billets en anglais intitulé ... Google and the Universal Translation Memory, en nommant le projet (puisque ce sera la page du texte traduit) Centre de traduction Google :
J'arrive alors sur l'espace de travail avec les deux textes en parallèle, avec à gauche l'original (en anglais dans ce cas), et à droite la version française prétraduite automatiquement par Google :
À noter qu'on peut disposer les fenêtres verticalement ou horizontalement, et que l'espace de travail, familier à tous les traducteurs professionnels qui disposent depuis des années déjà d'environnements de traduction organisés de cette manière, se décompose de la façon suivante :
En haut à gauche, vous avez le titre du projet de traduction ; en haut à droite, le nombre de mots du texte et le pourcentage de progression de la traduction ; à gauche le segment de texte surligné en jaune qui est la partie à traduire, et à droite, en regard, une fenêtre éditable avec le texte à traduire et ce que Google appelle des placeholders, pour faire en sorte de traduire sans toucher les balises, et donc sans modifier le formatage du texte.
J'arrête ici cette présentation sommaire, mais vous comprendrez que pour ce blog, né à l'enseigne de la traduction, à laquelle j'ai consacré de nombreux billets en général, et au binôme Google + traduction en particulier (une trentaine de billets en tout dont je publierai bientôt une liste à jour), cette nouvelle est vraiment de celles qui me font l'effet d'une bombe.
Tout comme il est probable qu'elle fera le même effet à toutes les parties prenantes, concernées de près ou de loin par la traduction. J'aurai l'occasion d'y revenir...
Ce que j'ai appelé "mémoire de traduction universelle", Google l'appelle probablement "very large-scale translation memory". J'ai découvert ça dans mes référents le mois dernier : en cherchant "large-scale translation memories" dans le moteur, un Googler est arrivé sur la version anglaise de mon billet intitulé Google and the Universal Translation Memory !
Expression clé qui ne produit telle quelle aucun résultat aujourd'hui, et tout juste cinq dans sa version au singulier, dont trois uniques :
D'ailleurs si quelqu'un sait comment avoir une invitation, pensez à moi, ce serait sympa !
Pour l'heure, ces Large-Scale Translation Memories, ces mémoires de traduction à grande échelle ne sont implémentées que par de très grosses organisations (Xerox, Union européenne, etc.) et par des LSP d'envergure mondiale. Je me limiterai à mentionner Logoport de Lionbridge, voir ici pour plus de détails.
Cependant, outre qu'elles se confinent au technique (si l'on peut dire), ces mémoires ont le - très - gros défaut d'être propriétaires. En ce sens que lors d'une traduction effectuée sur ces systèmes, la propriété de la mémoire est phagocytée par l'agence, les traducteurs n'ayant plus aucun contrôle sur ce qu'ils produisent...
Et même si une initiative open source comme GlobalSight, lancée par Welocalize (qui fait partie de TAUS), devrait voir le jour en janvier 2009, avec Google on change d'échelle. Et de modèle économique (notamment sur les questions de propriété intellectuelle)...
Dans ce cadre, les seules notions de mémoire approchantes qui existent sont, à ma connaissance, les projets TAUS et VLTM, le premier se distinguant davantage par sa portée potentielle, vu le nombre (une quarantaine de membres fondateurs plus une soixantaine de candidats en attente, outre l'implication probable de la Commission européenne) et la qualité des acteurs impliqués, et le deuxième par sa philosophie "libre", plus "grand public" dirons-nous.
Legitimate and secure platform for storing, sharing and leveraging language data.
Access to large volumes of trusted language data for increased translation automation.
Industry collaboration to promote harmonization of multilingual terminology.
Pour vous donner une idée du sérieux de l'affaire, on compte parmi les membres du Comité de pilotage des représentants de Microsoft, Intel, Sun Microsystems, Welocalize, Adobe et le Bureau de la Traduction du Gouvernement canadien.
Les données linguistiques, ou pour mieux dire, les "actifs linguistiques" seront sélectionnés et centralisés par les membres de l'Association : « TDA will give free access to its databases for the look-up of translations of terms and phrases. Members will be able to select and pool data to increase translation efficiency and improve translation quality. »
Sur la liberté d'accès à tous, il semble plutôt que le portail permettra à l'internaute lambda d'obtenir quelques infos essentielles sur la base, juste histoire de lui donner envie de payer pour pouvoir utiliser les données. Il faudra donc voir la version "live" à l'usage pour juger sur pièce, mais en clair, cette apparente gratuité ne sera qu'un "produit d'appel" pour passer à la caisse...
C'est d'ailleurs pourquoi l'initiative de Google ne laisse pas TAUS indifférent :
Article à lire...
* * *
Par rapport à TAUS, à vocation plus "industrielle", le projet VLTM (Very Large Translation Memory) de Wordfast est davantage "artisanal", puisqu'il suppose l'utilisation du logiciel de TAO, excellent mais quasi exclusivement réservé aux traducteurs de métier.
Ce serait d'ailleurs bien qu'Yves Champollion, que j'ai le plaisir de connaître, communique davantage sur le projet, sur sa philosophie, et donne peut-être quelques stats sur son utilisation.
Pour autant, l'initiative est tout aussi sérieuse que la précédente, parole de Champollion, bon sang ne saurait mentir ! Puisque Jean-François, son aïeul illustre, réussit à déchiffrer les hiéroglyphes grâce à la pierre de Rosette, découverte pendant la campagne d'Égypte, une stèle qui est à proprement parler l'ancêtre des mémoires de traduction (même si maintenant c'est un peu plus compliqué...) !
En effet, cette pierre aligne en parallèle trois inscriptions d'un même texte, dont deux en langue égyptienne et la troisième en grec, langue connue, ce qui a permis le déchiffrement.
* * *
Donc je le répète, et j'insiste lourdement là-dessus, ce qu'il y a de nouveau avec Google dans ce domaine, c'est à la fois l'échelle, superlative, et la rupture totale des modèles économiques pré-existants.
Car comme l'explique fort bien Franz Josef Och, Responsable recherche et traduction automatique, la clé des modèles de traduction selon Google, perpétuel apprenant, c'est de pouvoir disposer, d'une part, d'énormes quantités de données linguistiques (very large amounts of datas), et de l'autre, d'une phénoménale puissance de calcul qui traite à très grande vitessedes milliers de milliards de mots (aussi bien données textuelles que vocales...) dans pratiquement toutes les langues, puisque plus vous alimentez vos modèles statistiques en données, plus la qualité des modèles s'améliore !
Il précise d'ailleurs les deux principaux enjeux pour Google dans la traduction automatique :
augmenter la qualité de sortie, grâce au binôme quantité de données / puissance de calcul, ce qui explique clairement pourquoi la qualité est meilleure pour les couples de langues plus représentées ;
augmenter en conséquence le nombre de langues (et donc de couples de langues) et de fonctionnalités offertes (comme les recherches croisées : je saisis un terme en français pour une recherche sur le Web chinois, et en sortie j'obtiens une page avec les résultats chinois à gauche et en vis-à-vis leur traduction française à droite), etc.
Alors au bout du compte on finira par obtenir ce que j'expliquais dans Google et la traduction, à savoir la mémoire de l'humanité :
...En nous livrant à un bref exercice de prospective, on peut très facilement imaginer que ... Google pourra ... puiser pratiquement tous les termes du langage humain, dans toutes les langues, au fur et à mesure que sa notre mémoire de traduction universelle prendra forme.
Alimentée autant par les traducteurs humains qui utiliseront les outils de Google pour traduire, que par ses technos automatisées à grande échelle (...), voire par la mise en parallèle des œuvres littéraires qui appartiennent au patrimoine de l'humanité et sont déjà traduites dans de nombreuses langues.
Pour les profanes, mettre en parallèle un texte c'est prendre Les Misérables de Hugo ou votre livre préféré, le segmenter et mettre en parallèle les segments du texte original avec les segments correspondants traduits dans la ou les langues de votre choix (à noter qu'un segment ne correspond pas forcément à une phrase, découpée en plusieurs segments si elle est trop longue, par exemple). Vous faites ça avec français-anglais, et vous avez la mémoire français-anglais des Misérables. Ensuite vous faites de même avec anglais-italien, espagnol-allemand, russe-chinois, etc., et vous obtenez autant de mémoires que de langues dans lesquelles l'ouvrage a été traduit.
Donc ajoutez-y tous les grands classiques mondiaux déjà numérisés, construisez les mémoires de traduction correspondantes dans les couples de langues dont vous disposez, et vous comprendrez aisément qu'on n'est pas loin de pouvoir mettre en parallèle pratiquement l'ensemble du langage humain, à toutes les époques.
Depuis l'aube de l'humanité, nul n'a jamais été en mesure de faire ça. Jusqu'à Google...
Qui n'aura donc plus besoin de chercher "Large-Scale Translation Memories" dans ... Google, en laissant le pluriel aux autres, puisque la société de Mountain View disposera enfin de la très singulière "Very Large-Scale Translation Memory", j'ai nommé The Universal Translation Memory, ou par chez nous LA mémoire de traduction universelle...
Voici la dernière innovation en date de Google, qui me touche de très près. Révélé par Blogoscoped et découvert par Tony Ruscoe, vieille connaissance et habitué des scoops (en anglais), le centre de traduction de Google est très certainement destiné à révolutionner le monde de la traduction professionnelle (auquel j'appartiens depuis près d'un quart de siècle, le temps passe !) et de la traduction tout court.
Déjà que depuis plus d'une décennie tous les modèles économiques de la traduction volent en éclat les uns après les autres, bien avant ceux du journalisme, sous les coups de boutoir conjugués de la course au rabais, du crowdsourcing et de la concurrence mondialisée sur Internet, de la localisation, de la quadrature du triangle, etc.
Mais cette nouvelle initiative de Google est également une concurrence aussi puissante qu'inattendue pour les places de marché dédiées, dont la plus aboutie est sans aucun doute ProZ (où j'ai été modérateur pendant deux ans), puisque Google se place désormais sur le même terrain. En effet, même si pour l'instant Google a retiré les pages Web de son nouveau service, elles viennent s'ajouter à l'actuel pôle traduction de Google, disponible ici :
Cela va changer avec le nouveau centre de traduction, puisque la petite dernière nouveauté de Google, déjà traducteur automatique, est un véritable environnement d'aide à la traduction qui combine en ligne un poste de travail multifonctions, une plateforme de mise en contact et, probablement, de paiements, etc.
Mais le plus important, pour Google, c'est que si l'initiative est adoptée à grande échelle, ce qui est à prévoir, ils pourront capitaliser sur ce qui deviendra rapidement la plus grande mémoire de traduction du monde et l'améliorer au fur et à mesure. Constituée non plus uniquement de façon automatique, mais grâce à tous les internautes passionnés de langues, qu'il s'agisse de traducteurs professionnels ou pas. Il est même probable que le gros du travail sera fait par des amateurs plutôt que par des professionnels.
Ceci dit, je pense qu'il serait judicieux pour les professionnels d'occuper le terrain dès le début, car si Google prévoit de donner une visibilité quelconque aux traducteurs participants, c'est clairement une occasion à saisir, et si vous ne le faites pas, d'autres le feront. Donc autant être parmi les premiers...
Mais voyons de plus près quelle est la "philosophie Google" derrière son Google Translation Center, dont l'URL aboutit sur une page d'erreur mais dont les illustrations sont encore en ligne (pour combien de temps ?) ! Les captures d'écran représentent :
1. Ouvrir un nouveau projet :
Texte associé :
Vous souhaitez publier vos documents dans une autre langue ? Le centre de traduction de Google est la solution plus rapide pour traduire votre contenu : chargez votre document, choisissez votre langue cible et un prestataire parmi notre liste de traducteurs professionnels et bénévoles. Si quelqu'un accepte, vous devriez recevoir votre contenu traduit dès que la traduction sera prête.
Do you want your documents published in another language? Google Translation Center is the fast and easy way to get translations for your content. Simply upload your document, choose your translation language, and choose from our registry of professional and volunteer translators. If a translator accepts, you should receive your translated content back as soon as it's ready.
2. Trouver une demande de traduction/révision :
Texte associé :
Traduire dans votre langue vous passionne ? Cherchez dans notre centre de traduction les demandes ouvertes dans votre langue. Acceptez les demandes correspondantes et utilisez les outils de traduction de Google pour livrer rapidement des traductions de haute qualité.
Passionate about bringing content into your language? Browse through Google Translation Center to find open translation requests into your language. Accept translation requests and use Google translation tools to provide quick, high-quality translations.
3. Pour traduire et réviser, utilisez gratuitement nos outils de traduction conviviaux :
Texte associé :
Les traducteurs professionnels et bénévoles traduisent vite et bien grâce aux technologies Google - traduction automatique, dictionnaires et autres outils linguistiques. Mieux encore, nos fonctionnalités de recherche des traductions antérieures comparent la vôtre avec des textes précédemment traduits pour que vous n'ayez plus besoin de traduire encore et encore les mêmes choses !
Volunteers and professionals translate quickly and well through Google technologies - automated (machine) translation, dictionaries, and other language tools. Best of all, our translation search feature matches your current translation with previous translations, so you don't have to translate over and over again!
Donc, en tant que traducteur de métier, ce que je retiens d'abord de ceci est l'expression "traducteurs professionnels et bénévoles", qui seront ainsi mis en concurrence.
Or la gratuité est un critère difficile à battre, si ce n'est par la qualité. Les pros de la traduction le savent bien, qui luttent constamment contre une baisse des prix permanente avec les seules armes qui leur restent : la qualité et la spécialisation.
Google, qui dispose déjà de la plus grande mémoire de traduction du monde, s'apprête à en démultiplier la portée et la qualité. En mettant "gratuitement" ses outils ultra-performants à disposition des traducteurs contre la possibilité d'exploiter LA mémoire de traduction universelle ainsi créée, c'est évidemment un deal gagnant-gagnant pour Google et ceux qui feront traduire leurs contenus.
Avec au milieu les traducteurs, comme toujours, mais c'est dans leur DNA, puisque de tout temps les traducteurs sont des intermédiaires, des ponts disait Hugo...
Google donne davantage de précisions dans ses conditions de service (ne les cherchez pas, elles ne sont plus en ligne pour l'instant), où il se dégage de toute responsabilité éventuelle :
1. Google Translation Center's Role
Google Translation Center provides a venue for you to enter into and complete translation transactions. Except when you use Google Translation Center as provided in Section 4 (Google and/or its subsidiaries and affiliates may use Google Translation Center from time to time), Google is not involved in any transactions in Google Translation Center. Your interaction with any third party participant(s) or user(s) within Google Translation Center, including payment and delivery of goods and services, and any other terms, conditions, warranties or representations associated with such dealings, are solely between you and such third party participant(s) or user(s) and Google is not involved in such dealings. You agree that Google shall not be responsible or liable for any loss or damage arise out of such dealings.
En clair : le rôle du centre de traduction de Google, c'est de fournir une plateforme de traduction via laquelle des transactions pourront avoir lieu entre demandeurs (y compris Google, le cas échéant) et prestataires, ces derniers dégageant Google de ses responsabilités dans le cadre de leurs accords, contre paiement ou pas, avec des tiers.
De même, dans sa FAQ, Google nous dit que son centre de traduction s'inscrit dans l'effort déployé pour rendre l'information universellement accessible grâce à la traduction (Google Translation Center is part of our effort to make information universally accessible through translation).
C'est librement à la disposition de tous les traducteurs (We provide Google Translation Center tools to all translators), bénévoles et professionnels, ce qui suppose bien sûr un paiement, dans ce dernier cas (via Google Checkout ?).
Selon Google, son service devrait d'emblée être disponible en 40 langues, couvrant 98% des internautes (Google Translation Center supports translations into 40 languages, covering 98% of the world's Internet users).
En conclusion, il est encore bien trop tôt pour comprendre l'impact de ce nouveau service, mais ce qui est sûr, c'est qu'il s'agit là d'une nouvelle révolution destinée à bouleverser l'univers de la traduction, et, donc, des traducteurs professionnels, qui n'en avaient déjà pas besoin...
P.S. Puisqu'il en est question, suite à l'annonce par Google Adwords d'Insights for Search, qui donne un aperçu d'ensemble des volumes de recherche par terme(s) clé(s), par répartition géographique, les mots clés connexes, etc., voici l'exemple sur ... "traduction" :
Knol est généralement présenté comme une encyclopédie alternative à Wikipédia, avec trois différences essentielles : un auteur unique et non anonyme pour chaque article, plus la possibilité d'être rétribué via les AdSense.
En revanche, comme sur Wikipédia, les liens sortants sont en nofollow. Autres spécificités ici et là.
Donc, Knol : Google juge et partie, pourquoi ?
Nous avons vu récemment plusieurs exemples des chiffres astronomiques de Google, qui affiche 4,3 milliards de pages vues par jour sur l'ensemble de "son" réseau de contenu, comprenant « aussi bien les milliards de pages de résultats générées par le moteur de recherche que les centaines de milliers de "partenaires" - sites et pages Web, blogs, forums, réseaux sociaux, etc. -, sur lesquels s'affichent les pubs AdSense/AdWords » :
Il n'existe pas plus grand réseau de publicité contextuelle au monde.
Or le point commun de ce réseau, jusqu'à présent, c'était que tout le contenu servant d'inventaire était créé par des tiers, hors de Google.
Une donnée fondamentale qui change avec Knol !
Avec Knol, Google crée son "propre contenu" - quand bien même rédigé par des nègres comme le soussigné -, destiné à être indexé par ... Google !
Le service est encore trop jeune pour en juger, mais des premières mesures semblent indiquer qu'environ un tiers de l'échantillon se retrouve dans la première page de résultats de Google, une performance impossible à réaliser pour tout autre site qui ne serait pas ... Google, justement !
Et au-delà de son intérêt dans Mahalo, dont le modèle économique est touché de plein fouet par Knol, son article soulève de nombreux points intéressants, sur lesquels il vaut la peine de s'interroger.
1. Il compare l'écosystème de recherches de Google au système d'exploitation du Web, de facto, dont tous les webmasters doivent tenir compte et dans le cadre duquel tous les sites sont considérés comme des applications !
2. Il rappelle une interview donnée l'année dernière par David Eun, responsable Google pour les partenariats, dans laquelle il déclarait :
La plus grosse erreur d'appréciation que peuvent faire les producteurs de contenus, c'est de craindre et de croire que Google aspire à devenir un opérateur média qui produirait lui-même ses contenus en compétition avec les leurs. C'est une erreur d'appréciation majeure. Nous ne produisons pas notre propre contenu, nous nous considérons plutôt comme une plateforme sur laquelle nos partenaires placent eux-mêmes les contenus qu'ils produisent.
The biggest misconception is that they (content companies) fear Google has aspirations to become a media company, meaning that we would produce and own content that would compete against theirs. That's a major misconception. We don't produce our own content. In fact, we see ourselves as a platform for our partners that do.
3. Entre les lignes, il dit que le problème n'est plus celui de la "propriété" du contenu mais de sa diffusion et de la capitalisation de l'inventaire ainsi créé, raison pour laquelle même si Google imagine qu'il n'est pas fournisseur de contenus puisque ceux-ci ne lui appartiennent pas, c'est totalement faux, car "ça ne marche pas comme ça" (Google believes because they don't own the content that they are not in the content business. Nice try, but no, that's not how it works).
4. Google étant une la source de trafic majeure de nombreux sites (50% du trafic de Digg, 85% pour About.com, 70% pour Wikipédia, etc.), et donc le passage quasi-obligé entre vous et ces sites, il ne gagne de l'argent qu'au deuxième clic, une fois que l'internaute arrive sur ces sites et clique sur les pubs. Des sites qui dépendent du trafic de Google et vont donc se retrouver en concurrence avec Google dès lors que celui-ci mêlera ses propres résultats aux autres dès la première page.
5. Calacanis observe en outre que la création de contenus ne s'arrête pas aux textes mais implique également la vidéo, puisque Google a récemment signé un accord avec un réalisateur connu pour produire des clips vidéo destinés à être diffusés en exclusivité sur YouTube. Une donnée à mettre en rapport avec la loi de Pareto appliquée à la vidéo sur Internet, où 96 % des revenus sont générés par les 58% de vidéos streamées "professionnelles", contre seulement 4% des recettes pour les autres.
En conclusion, comme il le constate justement, tout ça n'est pas un problème jusqu'à ce que ça devienne "votre" problème (You get the idea, it's not an issue until it's your issue).
Alors, Knol : Google juge et partie, à vous la réponse...
Flickr, crowdsourcing, Web 2.0 et modèles économiques...
Dans un billet publié sur Wired en juin 2006, qui est à l'origine du concept de « crowdsourcing, ou contribution communautaire », le journaliste, Jeff Howe, explique le fonctionnement du site iStockphoto, qui propose un fonds photographique à environ 1$ la photo, fort de la contribution de quelque 22 000 photographes amateurs (le cap des 2 millions a été franchi il y a un an...), en concluant ainsi :
Comment voulez-vous concurrencer des photos à 1$ (“But how can I compete with a dollar?”) ?
Et Jeff Howe de poursuivre qu'en février de cette année-là, Getty Images, à l'époque la plus grosse agence photos du monde avec plus de 30% des parts de marché, faisait l'acquisition d'iStockphoto.com pour 50 millions $, en rapportant cette déclaration de Jonathan Klein, PDG de Getty Images :
Si quelqu'un est sur le point de cannibaliser votre métier, mieux vaut l'intégrer dans l'un de vos autres métiers.
“If someone’s going to cannibalize your business, better it be one of your other businesses”.
À la lumière de cette déclaration, prononcée il y a deux ans, on comprend mieux pourquoi Getty Images vient juste de signer un contrat avec Flickr (Yahoo!), dans le cadre duquel, lorsque les accords seront finalisés, les utilisateurs sélectionnés de Flickr pourront être rémunérés par Getty au même tarif que celui appliqué aux photographes contractuels.
Soit entre 30 et 40% du tarif facturé par Getty pour les images dont les droits sont sous licence, compris dans une fourchette de 500 à 600$ pour une période temporelle limitée, et une cinquantaine de dollars pour les images sans droit exclusif d'utilisation. Si ça vous intéresse...
Jonathan Klein, toujours lui, réitère :
Nous pensons que l'inventaire de Flickr est un ajout important au mix de notre offre.
“We believe that Flickr will be an important addition to the mix that we have”.
Vu les chiffres annoncés par The Register pour Flickr (54 millions de visiteurs mensuels dans le monde, plus de deux milliards de photos d'inventaire et 27 millions de membres, à comparer avec les chiffres d'iStockphoto.com ci-dessus), on le comprend !
Il précise d'ailleurs que cet accord pèsera peu sur les finances du groupe, mais qu'il est extrêmement significatif au plan stratégique (Klein said the deal "financially for us is not significant, but it's strategically extremely important").
D'autant plus lorsqu'on a une idée des circuits qu'empruntent les marchés de la photographie :
Il y a quelques jours, par le plus grand des hasards, je tombe sur cet article de Libération, qui parle de la baisse de l'immobilier dans plusieurs villes de France. Mon regard, attiré par cette magnifique photo d'un immeuble parisien :
Or connaissant Luc dans le cadre des Explorateurs du Web, surpris, je le contacte en lui demandant s'il en sait quelque chose. Voici un extrait de ses réponses, qu'il m'a autorisé à citer (c'est moi qui souligne) :
Ce qui m'étonne le plus c'est que je suis très loin de produire des photos de qualité pro… j'utilise un appareil qui coûte moins de 200 euros… et les médias soient prêts à sacrifier en qualité pour se tourner de plus en plus vers du gratuit.
Au delà de l'avenir des médias eux-mêmes, l'avenir des agences photos me parait bien sombre.
(...)
Pour l'image Libé… je n'étais pas au courant.
Ce n'est pas la première fois, loin de là, mais habituellement les "pompeurs" me préviennent via un mail ou un message dans Flickr.
Visiblement mon statut de photographe amateur (pour ne pas dire de simple touriste) ne fait pas peur aux éditeurs ;-)
À chaque réutilisation ou distribution de cette création, vous devez faire apparaître clairement au public les conditions contractuelles de sa mise à disposition. La meilleure manière de les indiquer est un lien vers cette page web.
Or si Libé a respecté la paternité en mentionnant le nom de Luc, l'article ne donne aucun lien actif, ni vers la photo ni vers la licence, pas plus qu'il ne précise « clairement au public les conditions contractuelles de sa mise à disposition » !
Et pour être tout à fait complet, signalons que j'ignore totalement si ce même article a paru sur la version papier du journal, avec la même photo ? Donc voilà.
En observant qu'ici, on ne parle pas du blogueur du coin mais de Libé, l'un des premiers quotidiens de France. Que les personnes autorisées et plus compétentes que moi en tirent les conclusions qu'elles jugeront nécessaires...
P.S. Pour répondre à Luc, qui s'étonne de ce qu'il est « très loin de produire des photos de qualité pro… » et que « Visiblement (s)on statut de photographe amateur (pour ne pas dire de simple touriste) ne fait pas peur aux éditeurs », laissons la parole à Jonathan Klein :
Nombre de clichés, qui n'ont pas été pris pour des services commerciaux, sont plus authentiques. Or l'authenticité, c'est que les annonceurs recherchent.
Because the imagery is not shot for commercial services, there is more authenticity. Advertisers are looking for authenticity.
À chaque pôle une "entité" pouvant recouvrir plusieurs acteurs : par exemple, le "développeur" peut être un individu, un réseau de distribution, une régie, etc. La présence du trait haché de la flèche reliant le "développeur" à l' "utilisateur" indique que le premier peut parfois toucher le second sans passer par le "diffuseur", même si dans ce modèle tripartite, c'est ce dernier qui se taille la part du lion. Quelques diffuseurs : MySpace, Facebook, eBay ou ... Netvibes, GYM, etc.
En effet, 99% des fois, seul le diffuseur garantit la visibilité et l'exposition suffisantes pour créer l'effet de taille nécessaire à la satisfaction de l'annonceur. Le diffuseur joue un rôle central en accueillant/affichant le widget sur sa plateforme. Or si vous imaginez le widget - à la fois contenant et contenu - comme une fonctionnalité créée par le développeur à destination de l'utilisateur, il est clair que plus la plateforme d'accueil est importante, plus le nombre d'utilisateurs touchés est élevé.
De même il est probable que ces éléments, plateformes et widgets, vont vite devenir deux des piliers sur lesquels se bâtira le futur écosystème de l'Internet, déjà en route. Avec des plateformes de plus en plus puissantes mais ouvertes, complètes mais faciles à prendre en main, sophistiquées mais gratuites, où l'utilisateur n'a plus qu'à créer/publier/diffuser son contenu (le fameux UGC) dans un environnement intégré, collaboratif.
Or comme le mentionne Pierre Chappaz un an plus tard, contrairement aux attentes, le marché du widget est encore immature. Tariq Krim, lui, s'attend à une forte montée en puissance courant deuxième semestre 2008 et à l'explosion en 2009 de la "widget economy", ou l'économie du widget et des nouvelles opportunités liées à ce marché, pour rendre enfin possible la monétisation du Web social...
Même s'il ne peut s'empêcher de s'interroger : How big is this market ? Comme beaucoup d'autres se posent la même question, du reste. Y compris Adscriptor !
C'est d'ailleurs vraisemblablement pour cela que Tariq quitte aujourd'hui le navire : tiraillé entre la nécessité des investisseurs de valoriser leur mise et son désir de voir un Netvibes volant de ses propres ailes, il doit préférer que la vente probable de Netvibes se fasse via un autre intermédiaire que lui, Freddy Mini en l'occurrence. Ce raisonnement est pure prospection de ma part, c'est clair.
Pour autant, la réalité des widgets a fortement progressé depuis un an et commence à donner des résultats concrets. Ainsi que des « revenus encore modestes, mais en croissance », nous dit Pierre. Qui reconnaît à Tariq d'avoir été « un véritable visionnaire » en la matière.
En fait, sous l'impulsion de Tariq, Netvibes est passé de simple page d'accueil personnalisable à plateforme de widgets, qui en détient déjà plus de 100 000 "en portefeuille", pour la plupart monétisés aux États-Unis, ce qui fait résolument de la société l'un des seuls acteurs européens sur le marché des widgets :
Netvibes is definitely one of the only companies that operate in the widget market in Europe.
Avant l'introduction de Ginger, le modèle économique de Netvibes était fondé sur la vente à nos partenaires d'univers et de pages en marque blanche contre le paiement de droits de licence mensuels. Aujourd'hui, Ginger intègre un réseau publicitaire widgétisé pour permettre à ses partenaires de distribuer des widgets sponsorisés. Le modèle typique de monétisation est le CPI, ou Coût par installation, couplé à un système d'enchères. Après juste quelques mois d'existence, le programme a démarré sur les chapeaux de roue.
Et Tariq nous donne le lien d'une présentation où il détaille mieux le fonctionnement du modèle.
J'en retiens quelques idées fortes : depuis le lancement de Netvibes, en septembre 2005, 58 millions de comptes créés dans le monde, plus de 110 000 widgets, de 20 000 contributeurs, de 1 000 développeurs pour la plateforme et de 1 000 partenaires.
Des chiffres apparemment impressionnants mais à relativiser, car si on les rapporte aux statistiques citées par Techcrunch, avec une courbe de fréquentation oscillant entre 1 et 2,5 millions de visiteurs uniques par mois, selon comScore, on voit bien que la plupart des comptes sont inactifs, à la différence de Facebook, par exemple.
La vision d'une architecture ouverte pour l'économie du widget afin de faciliter, propager, monétiser :
Our vision
An open architect of the widget economy
Enable, propagate, monetize
Faciliter la propagation et la monétisation des widgets, consiste entre autres à mettre à disposition des outils de widgétisation des flux RSS et d'édition/création de widgets, grâce à des modèles simplement personnalisables :
Et moi qui ai fait l'expérience avec un widget créé pour Primoscrib, y compris sur Netvibes, et bien je peux vous assurer que ce genre d'outil s'avère extrêmement précieux...
D'autres services de promotion sont censés favoriser la diffusion, la visibilité, le positionnement, etc. En un mot : la viralité.
Voilà. Dès demain, Netvibes s'apprête donc à ouvrir davantage ses API et sa plateforme pour lancer de nouveaux services, notamment des librairies et des serveurs open source, destinés à révolutionner l'univers des widgets. L'annonce officielle aura lieu lors de la Conférence des développeurs, intitulée Netvibes Meetup.
Ce qui est sûr, c'est que grâce au partenariat signé avec Sohu et Maxthon en vue des Jeux Olympiques de Pékin 2008 (du 8 au 24 août prochains), Netvibes va enfin bénéficier d'une visibilité et, je l'espère, d'une couverture maximales, ils n'auront plus qu'à forcer un peu sur le contenu et sortir le grand jeu en matière de communication. Un aspect qui leur a toujours fait défaut jusqu'à présent, AMHA.
[MàJ - 13h45'] Lire les réactions de Narvic et de Szarah, j'ai déjà répondu en partie à Narvic en commentaire, quant à Szarah, je me donne le temps de la réflexion : son billet est extrêmement argumenté et demande une réponse qui ne l'est pas moins.
* * *
Je réagis à quelques commentaires de Szarah (notamment Le web 2.0 ne détruit pas la culture, il la nivelle au niveau mondial) et plusieurs posts de Narvic, dont l'actuelle première page ne concentre pas moins de 4 billets où il exprime, encore et toujours, sa position fortement critique sur le Web 2.0 :
Je ne soupçonne pas la moindre opération occulte derrière cet état de fait : j’y vois seulement le fonctionnement « normal » des algorithmes de recherche de ces moteurs, qui se révèlent extrêmement faciles à manipuler.
Je constate seulement l’effet sur ces moteurs de l’action bien menée d’une communauté de blogeurs biens organisés, qui écrivent tous des billets en même temps sur le même sujet et se lient les uns aux autres par hypertexte. Il n’usent ici que de leur liberté d’expression, et comme ils le font de manière collective : ils occupent à un instant donné tout l’espace de la blogosphère, selon l’image qu’en donnent ces moteurs.
Ce qui me pose problème, c’est que quelqu’un qui souhaite, à cette heure, faire une recherche sur ces moteurs pour s’informer de ce que l’on dit de cette affaire, n’en obtiendra qu’une vision outrageusement orientée et partisane.
Neutralité ? Pertinence ? Fiabilité de l’information ? Ces moteurs de recherche de blogs ne relaient rien d’autre que la clameur de celui qui crie le plus fort à un moment donné ! Et quel impact tout cela a-t-il sur l’opinion que vont se forger sur ce sujet, les internautes qui l’auront abordé au moyens des outils d’internet qui fonctionnent de cette manière ?
Le débat semble enfin s’ouvrir peu à peu sur la face noire du Web 2.0, qui échange une liberté absolue (en apparence) contre une inéquité fondamentale (dissimulée). Bientôt des manifestations en ligne sur les sites de Google, Facebook, Dailymotion et autres Myspace pour demander un partage équitable du revenu généré par l’utilisateur ?
Fort bien, mais est-ce que ça va suffire à nous protéger de ce gigantesque nivellement intellectuel par le bas que l'auteur voit se profiler dans le Web 2.0 ? (conclusion sous forme d'interrogation qui fait suite à plusieurs autres questions auxquelles j'ai tenté de fournir quelques brèves réponses...)
Donc, dans une tentative très personnelle de compenser un peu la clameur qui s'élève sur la soit-disant face noire du Web 2.0 et sur les débauches & catastrophes en tous genres qui lui sont associées, voire imputées, permettez-moi de vous donner mon point de vue en réagissant à l'une des questions soulevées par Narvic, demandant « un partage équitable du revenu généré par l’utilisateur » dans l'un de ces billets, Exploitation 2.0, qui cite Nicholas Carr traduit par Francis Pisani :
Le système économique de web 2.0 s’est révélé être dans les faits, à défaut de l’être intentionnellement, un système d’exploitation plus que d’émancipation. En mettant les moyens de production entre les mains des masses tout en leur niant la propriété du produit de leur travail, web 2.0 fournit un mécanisme extraordinairement efficace pour récolter la valeur économique du travail fourni gratuitement par le plus grand nombre et le concentrer dans les mains d’une infime minorité.
Ma première impression, au vu de l'actuelle première page de Novövision, c'est un fort sentiment de gêne, d'injustice, même, face à cette concentration délibérée d'événements et de jugements si négatifs portés sur ce qu'il est convenu d'appeler le Web 2.0, sur l'UGC, sur la blogosphère manipulée et/ou manipulatrice, etc.
Une première mauvaise impression qui s'accentue au fur et à mesure que je lis ces multiples formes de dénigrement sur ce gigantesque nivellement intellectuel par le bas et de la culture au niveau mondial, auquel se livrerait le Web 2.0, là où personnellement j'y vois un formidable instrument de vulgarisation du savoir et de démocratisation des consciences. Gratuitement, qui plus est...
J'imagine que c'est toujours la même histoire du verre à moitié vide ou à moitié plein : pourtant c'est toujours le même verre...
* * *
Donc, après le verre à moitié vide, voici ma vision du verre à moitié plein.
Que j'entame par un parallèle évident, pour moi, entre l'Encyclopédie de Diderot et d'Alembert et le Web de Tim Berners-Lee et Robert Cailliau, celui-ci pouvant être considéré comme l'aboutissement inespéré, impensable - et impensé -, d'une entreprise qui avait pour but, selon les termes mêmes de Jean Le Rond d'Alembert dans son Discours préliminaire, d'exposer autant qu'il est possible l'ordre et l'enchaînement des connaissances humaines...
L'enchaînement étant donné sur le Web par l'hypertextualité, et l'ordre restant propre aux individus selon le parcours que chacun/e se donne et/ou s'invente...
Dans une attitude active ou, pour le moins, qui devrait l'être, contrairement à la télévision, par exemple. Car si l'interactivité n'atteint pas sa plénitude sur le Web, alors c'est à désespérer de l'humanité...
Or ce n'est pas le cas : j'observe dans le Web 2.0 une telle effervescence jaillissante de l'interactivité, portée à une puissance (dans son acception mathématique, mais pas seulement) inégalée à ce jour (et probablement encore moins que demain) que j'ai d'énormes difficultés à concevoir que pour certain(e)s, ce même Web 2.0 n'est que source d'évaluations teintées de pessimisme et d'amertume. Des évaluations qui deviennent tellement battues et rebattues qu'elles ne sont plus que lieux communs, clichés, etc.
Sans prétendre à l'exhaustivité, voici quelques exemples qui me viennent à l'esprit parce que ce sont ceux que je rencontre le plus souvent :
le nivellement par le bas ;
la fausse gratuité ;
l'exploitation de l'UGC par les méchants moteurs et agrégateurs en tout genre ;
l'absence ou l'insuffisance du partage des revenus.
* * *
1. Le nivellement par le bas
De quoi parle-t-on ? Du nivellement par le bas de la culture, des consciences ? Mais voici plus d'un demi-siècle que la télé s'en charge, mes chers contempteurs ! Qu'est-ce qui marche le mieux, à la télé ? Le cul, la violence, l'argent, le pouvoir, etc. Rien de nouveau sous le soleil.
Pour autant, doit-on dire que la télé n'a jamais rien fait pour promouvoir la culture des masses ? Non, n'est-ce pas ?
Et attention, je suis moi-même extrait des masses. Issu d'une famille modeste, de parents fonctionnaires, placés plutôt bas dans l'échelle des mérites, sans biens ni aucune fortune personnelle. Qui s'est retrouvé orphelin à la rue à 18 ans. Sans aucun diplôme (niveau BEPC), sans aucune formation professionnelle, sans aspirations, sans soutien économique, sans rien, quoi.
Qui s'est fait sa propre culture en autodidacte à 100%, et qui continue sa formation permanente tout au long de la vie. Tout seul, comme un grand.
Or que m'offre le Web ? TOUT ! Sans limites. Sans argent. Si ce n'est le coût de la connexion. Je me connecte, et vogue la galère. Je navigue, libre. Je peux tout apprendre, tout découvrir, tout approfondir. Partout, sur tout, et même dans toutes les langues, si je veux. Je peux voyager, embarquer sur Google Earth, survoler des pays inconnus, m'égarer dans la voie lactée, etc.
Que l'on me dise quand, et où, depuis l'aube des temps, l'humanité a-t-elle eu un tel outil gratuitement à disposition ?
C'est tellement gigantesque comme gisement de connaissances et d'émerveillements qu'en comparaison la caverne d'Ali Baba me fait penser à un misérable bric-à-brac enfoui dans un cul-de-basse-fosse. Tiens, puisque j'en parle, testez Google, et vous avez comme premier résultat Le Rhin, de Victor Hugo, téléchargeable en un clic !
Toute la connaissance du monde, ou presque, à portée de clic. Gratuitement.
Et bien non ! Si pour vous c'est de l'exploitation, pour moi c'est de l'émancipation.
Et toutes ces critiques négatives qui éclosent à fleur de billets, de discussions, de commentaires, d'articles, etc., me font penser à un combat d'arrière-garde, à une opposition plus souvent stérile que constructive. Je n'ai jamais soutenu que tout est bon, mais je suis un peu las de voir ces discussions sans fin sur la face noire du Web 2.0.
D'où mon parallèle avec l'Encyclopédie :
La grandeur de l'Encyclopédie est précisément d'être une œuvre de combat liée aux circonstances historiques, de mettre en cause des intérêts humains profonds et véritables, de représenter un moment de la société, de l'histoire, de l'esprit, un moment de l'homme. Sa publication, étagée dans les temps, devait donc déchaîner nécessairement des passions contradictoires, devait donc être difficile. Ne déplorons pas les « traverses » qu'elles a rencontrées, elle leur doit sa grandeur. Pour quel dictionnaire se battrait-on de nos jours, et qui se battrait pour un dictionnaire ?
Préface d'Encyclopédie ou Dictionnaire raisonné des Sciences, des Arts et Métiers, édition J'ai lu l'essentiel, articles choisis et présentés par Alain Pons.
Et bien voilà ! Aujourd'hui, perpétuel recommencement de l'histoire, on se bat pour le Web. Et ce n'est qu'un début ! Le Web, c'est l'Encyclopédie à l'énième puissance presque trois siècles plus tard...
* * *
2. La fausse gratuité
J'ai barré "fausse", car la gratuité existe bel et bien sur le Web. C'est d'ailleurs ça qui gêne profondément les bonnes consciences. Surtout en France, la fameuse exception française, comme toujours !
Là encore les anglo-saxons enseignent. Eux ils se posent moins de questions philosophiques (c'est gratuit, c'est pas gratuit, c'est moitié gratuit, moitié payant, etc.), ils élaborent, retraitent les données du problème et reformulent.
Mais pendant ce temps, les franco-français continuent à râler et à se demander si au fond le Minitel, c'était pas mieux !
Tiens, vous voulez que je vous dise quelque chose : votre Minitel (je ne vis plus en France depuis le début des années 80, je n'ai donc pratiquement pas connu le Minitel), si France Télécom ne l'avait pas fourni GRATUITEMENT aux populations, jamais personne ne l'aurait acheté !!!
Donc toute l'économie qui s'est créée ensuite autour du Minitel, y compris avec le cul et le Minitel rose, s'est créée à partir d'un outil distribué GRATUITEMENT avec la bénédiction de France Télécom et de l'État français.
Un exemple à méditer lorsqu'on parle du Web 2.0, ou non ?...
Et je suis sûr qu'il y en a d'autres dans la galaxie !
Donc la gratuité fait résolument partie des intemporels de Google, mais aussi de la philosophie de Yahoo!, du monde du libre (Spip, pour n'en citer qu'un...) et de tous les acteurs du Web 2.0 qui savent que le modèle gratuit est désormais une condition sine qua non pour se faire connaître, percer et éventuellement réussir : l'histoire du Minitel qui se répète...
Il y a en outre un service supplémentaire que Google met gratuitement à la disposition de tous : Google Adsense, j'y reviendrai au point 4...
* * *
3. L'exploitation de l'UGC par les méchants moteurs et agrégateurs en tout genre
Il est clair que la stratégie de Google et des autres vise à collecter le plus d'éléments possibles sur ses utilisateurs. Au point qu'on en arrive à plus d'un millier d'événements qui déclenchent la collecte de données "privées" sur les internautes (Data transmission events).
Mais est-ce que ça vous dérange ? À moi, non. Pas plus que ça.
D'ailleurs, si ça vous dérange vraiment, il vous suffit de ne plus utiliser les services listés ci-dessus, c'est aussi simple. D'autant plus que pour tous ces services, vous allez trouver les équivalents payants. Donc pourquoi ne pas payer lorsqu'on peut trouver les mêmes services en payant ?
Si tel est selon vous le prix de l'indépendance et de la liberté, voire du respect de votre vie privée, ce serait bête de vous en priver, justement !
Mais continuer à dire que les moteurs et les agrégateurs ne pensent qu'à exploiter le contenu des autres, parce que tout ce qui les intéresse c'est de se faire du fric sur le dos des internautes sans prendre les responsabilités qui vont avec, c'est pousser un peu loin le bouchon !
D'abord il faut préciser que si quelqu'un ne veut pas être indexé, rien de plus simple. Un noindex et c'est réglé. Une demande de retrait d'index et c'est réglé. Un mail à l'agrégateur pour indiquer son refus et c'est réglé. Donc où est le problème ?
Sauf à dire que les moteurs et les agrégateurs ne serviraient à rien... Un pas que je ne saurais franchir.
Ils indexent mon contenu, et me donnent de la visibilité. Je n'en demande pas plus. Vous ne voulez pas être indexés, restez secrets. Présents sans être visibles. Autrement dit inconnus. Mais alors ne vous étonnez plus que les "algorithmes de recherche de ces moteurs (...) se révèlent extrêmement faciles à manipuler."
Ne vous étonnez plus qu’une "communauté de blogeurs biens organisés, qui écrivent tous des billets en même temps sur le même sujet et se lient les uns aux autres par hypertexte (...) occupent à un instant donné tout l’espace de la blogosphère, selon l’image qu’en donnent ces moteurs."
Donnant ainsi "une vision outrageusement orientée et partisane."
Il faut savoir ce que l'on veut ! Soit on veut avoir une voix pour gueuler plus fort que l'autre quand on juge ses intérêts menacés, soit on veut rester invisible et ... silencieux, mais après on ne s'étonne pas que d'autres occupent le terrain.
Si je travaille la visibilité d'Adscriptor, c'est bien pour tenter de me faire entendre quand j'estime que c'est le moment. Comme avec ce billet, par exemple. Ou comme dans les affaires Martinez ou DatingWatch, etc.
Avez-vous une idée de ce que certains sont prêts à dépenser pour être en première page des résultats de Google et de la valeur d'un tel positionnement ? Que ce soit en payant ou en organique (respectivement 14% contre 86% des clics) ?
Donc que je soigne mon contenu et que l'algorithme d'un moteur ou d'un agrégateur m'aide à en booster la visibilité, je ne vois là aucune exploitation mais juste un deal tacite, gagnant-gagnant.
D'autre part, les moteurs, les agrégateurs, les réseaux sociaux et les autres acteurs du Web 2.0 investissent énormément, notamment dans des infrastructures matérielles et logicielles lourdes. Donc pourquoi s'étonner qu'ils veuillent gagner de l'argent ? Et comment définir ce que serait, dans ce cas, un partage équitable du revenu généré par l’utilisateur ?
* * *
4. L'absence ou l'insuffisance du partage des revenus
Dire que ça n'existe pas serait faux. Adsense, c'est gratuit et ça rapporte ! Tous ceux qui en ont sur leur site le savent, vous n'avez besoin de rien pour mettre votre code Adsense sur vos pages, sauf le respect de certaines "règles", parfois violées par Google lui-même mais qu'il semble vouloir de plus en plus faire respecter (dans la série "faites ce que je dis, mais pas ce que je fais"...).
Il est clair que beaucoup tentent de manipuler les moteurs avec plus ou moins de réussite et de risques pour augmenter leur trafic et gagner plus.
Je peux même vous dire que de nombreux référenceurs qui ont compris comment les choses fonctionnaient préfèrent travailler d'abord pour eux, et ensuite pour les autres, à l'occasion...
Le vrai problème aujourd'hui, c'est que le seul modèle publicitaire qui marche depuis 4 ou 5 ans, le binôme AdWords - AdSense, pour être clair, n'est plus franchement adapté aux diversités des situations sur Internet, notamment au Web participatif et aux réseaux sociaux. D'où les nombreux tâtonnements pour inventer de nouveaux modèles économiques, des widgets à d'autres formes de monétisation des résultats (le CPA, par exemple), en passant par la recherche sociale et la recherche universelle, etc.
Google annonce déjà Adsense for Video, dont on mesurera mieux les enjeux lorsque l'on sait que plus de 10 milliards de clips sont visualisés chaque mois, uniquement aux États-Unis : +10 milliards !!!
Google ! Encore et toujours ! La seule chose que je peux partager, c'est qu'un peu de concurrence dans les régies serait bénéfique pour tout le monde. On attend juste les candidats. Et en Europe, je vous dis pas...
Pour être tout à fait sincère, je ne vois pas vraiment émerger de compétiteurs européens capables de jouer dans la cour des grands.
Exalead ? Bof. En tout cas pas avec ça...
Wikio ? Peut-être. La Justice permettant...
Mais en attendant que de nouveaux modèles viables et solides de monétisation ne voient le jour, avec des règles claires, je conçois difficilement que l'internaute lambda soit fondé à prétendre un partage plus équitable des revenus sur "son" contenu autre que :
une visibilité en rapport avec sa "pertinence",
un reversement modulé sur ce qui existe déjà, et
un choix si vaste et si riche de services gratuits qu'il est pratiquement impossible de tous les utiliser...
P.S. Narvic, sans rancune, j'espère. Mais dans Novövision je vois le préfixe Nov, un peu comme dans novlangue, qui serait donc censé apporter quelque chose de neuf, une nouvelle vision, justement : je la souhaiterais seulement un peu moins pessimiste...