samedi 20 septembre 2008

Les 34 recommandations du rapport Giazzi

Les 34 recommandations du rapport Giazzi

Elles sont organisées autour des huit grands principes/objectifs soulignés (en revanche, les 13 recommandations en gras sont celles "estimées incontournables" par le rapport Giazzi).
I - Défendre et renforcer le pluralisme de la presse

1. Constitutionnaliser la défense du pluralisme et de l’indépendance de la presse
2. Améliorer le financement de la presse en développant le mécénat, les Fondations et éventuellement un fonds d’investissement dédié

3. Créer auprès du Premier ministre un observatoire du pluralisme dans la presse
4. Étendre les compétences du CSA (notamment aux nouveaux médias) et le saisir de la question du respect du pluralisme
5. Élargir les aides de la Commission paritaire aux nouveaux supports (journaux tout en ligne, gratuits, etc.)

II - Favoriser l’information de qualité

6. Inscrire les chartes de déontologie des journalistes dans leur Convention collective
7. Professionnaliser les sites d’information en favorisant le recrutement de journalistes
8. Recentrer les aides à la presse sur la presse d’information générale et politique

9. Doter l’Agence France Presse d’un statut et d’une direction pérennes, soutenir son projet numérique

III - Faciliter l’accès aux contenus par tous les canaux de diffusion

10. Recentrer la Loi Bichet sur sa vocation d’origine
11. Appuyer le plan « Défi 2010 » des NMPP, favoriser l’ouverture de nouveaux points de presse
12. Libéraliser la réglementation des points de vente pour en augmenter le nombre et l’efficacité
13. Développer la pratique du portage à domicile avec les instruments de l’aide à la création d’emplois
14. Soutenir une réforme drastique des imprimeries

15. Stimuler la recherche et l’innovation sur la diffusion numérique

IV - Mieux anticiper l’avenir des médias

16. Soutenir une recherche de haut niveau sur les évolutions des médias et faire émerger une formation ambitieuse pour les stratèges de la guerre numérique
17. Susciter des formations marketing dans les écoles de journalisme et de communication
18. Inciter les groupes de presse à former leurs journalistes aux technologies numériques

V - Soutenir l’investissement

19. Mettre en place des mesures d’incitation à l’investissement numérique

20. Élargir le périmètre des aides à la numérisation
21. Soutenir financièrement la double diffusion analogique et numérique de l’audiovisuel
22. Élargir le périmètre d’intervention de la Caisse des Dépôts à l’investissement dans les groupes de médias

VI - Permettre la constitution de champions de taille mondiale

23. Autoriser un groupe de médias à posséder une chaîne de télévision, une radio et un quotidien de dimension nationale
24. Relever le seuil d’audience maximal pour un média radio
25. Asseoir les limites à la concentration de la télévision sur une audience réelle à définir plutôt que sur le nombre de chaînes
26. Supprimer les seuils de détention capitalistique (49 %, 15 %, 5 %)

VII - Favoriser la modernisation des industries culturelles

27. Résoudre la question des droits d’auteur des journalistes de la presse écrite

28. Adapter le cahier des charges des chaînes de télévision aux contraintes de la nouvelle donne numérique
29. Repenser les obligations de coproduction et les droits patrimoniaux des chaînes de télévision

VIII - Soutenir les médias français face aux défis du numérique

30. Préserver les équilibres économiques face aux évolutions des marchés de la publicité

31. Aménager les règles de la publicité à la télévision
32. Optimiser et garantir les règles de mesure d’audience des contenus
33. Permettre à la radio de relever le défi numérique dans de bonnes conditions
34. Appliquer un régime de TVA unique pour les médias, quel que soit leur support de diffusion
La seule question que je me pose, partisanne, et à laquelle je répondrai dans un billet à venir, est la suivante : Et les blogs-blogueurs, dans tout ça ?


Partager sur Facebook

, , , , , , , , , , ,

vendredi 19 septembre 2008

Wikio : deux cartons jaunes = un rouge

Wikio : deux cartons jaunes = un rouge

Titre emprunté à la conclusion de ce billet :
2 jaunes = 1 rouge. Même si vous modifiez votre robots.txt. Adieu.
Sans appel ! Heureusement que sur une saison un championnat est fait de plusieurs parties et que le carton rouge ne vaut que pour deux matchs.

Un reverse buzz est donc en train de monter en puissance derrière un certain nombre de blogueurs, suite au billet de Thomas intitulé Pourquoi je n'aime pas wikio ?

Donc après un ternissement de l'image de Wikio lié à deux précédents épisodes :
  1. celui des mauvaises redirections, où, comme l'expliquait le Chauffeur, la redirection 301 est interprétée par les moteurs comme une page web déplacée de façon permanente, et comme déplacement temporaire en cas de redirection 302, auquel cas la redirection 302 entraine que la page du site qui fait la redirection - Wikio - remplace la page d'origine aux yeux des moteurs de recherche.
  2. celui du framing de contenu, où, comme l'expliquait Sergi, en cliquant sur un lien depuis Wikio, vous n'arrivez pas sur le site publiant l'article, mais vous restez sur Wikio qui 'recopie' votre page à l'intérieur de la sienne, quelque chose tellement 'web 1.0' dont on pensait être débarrassé (voir également ici).
En voici un troisième qui ajoute à la perception négative d'un nombre grandissant de blogueurs.

De quoi s'agit-il ? Comme le dit Thomas dans son billet, la ligne Disallow: /webinfo placée dans le fichier robots.txt de Wikio (elle n'y est plus, correction effectuée dans la journée), empêchait les moteurs de suivre les liens vers les articles / billets originaux.

En clair, pour reprendre les explications de Jérôme :
Lorsqu'on clique sur une actu Wikio, pour se rendre sur le site d'origine on passe par une page intermédiaire de wikio (plutôt qu'un lien direct) :

http://www.wikio.fr/webinfo?id="identifiant_de_la_news"

C'est tout à fait légitime, car cela permet à wikio de tracker les clics sortant et donc de faire des stats pour utilisation interne (mais aussi certainement calculer le top des blogs). Cependant, avec le Disallow: /webinfo dans le robots.txt, les moteurs ne suivent pas ce lien => le site source ne bénéficie pas du PageRank de wikio.

Mieux vaudrait faire un lien standard vers la news d'origine (il sera ainsi suivi par les moteurs et donc les bloggeurs bénéficieront de la propagation du PageRank), et de rajouter un code javascript sur le onclick du lien pour pouvoir continuer à tracker les clics.
En résumé, ce que les blogueurs attendent de Wikio, ce serait surtout des liens directs vers les sources. En toute transparence.

Car tant que Wikio sera perçu comme un scrapper par une partie des internautes, qui assimilent ça purement et simplement à du pillage de contenu, il sera difficile - sinon impossible - pour Pierre Chappaz et son équipe de prouver la valeur ajoutée de Wikio.

Et selon moi, la valeur ajoutée de l'outil Wikio est grande, pour plusieurs raisons : l'outil est unique, et ses nombreux potentiels encore inexploités. Ou pas suffisamment. Ou mal. Ce n'est pas un jugement, c'est une critique que j'espère constructive. Et tant l'arrivée de Jean dans l'aventure que la création des Wikio Labs autorisent tous les espoirs que de grandes choses puissent être réalisées.

Pour conclure, le mot clé dans toutes ces affaires est le suivant : TRANSPARENCE.

En jouant à fond la transparence, Pierre a tout à gagner. Mais tout à perdre dans le cas contraire. Or lorsque l'on reproche à Wikio de ne jouer ni le jeu ni la transparence, comme dans les trois épisodes précédents, il me semble qu'à chaque fois Wikio a su réagir, vite, et corriger dans la foulée. Ce qui indique - indépendamment de ce que peuvent en dire ses détracteurs - une forte réactivité, et implique d'être à l'écoute de ses utilisateurs.

Mieux vaudrait ne pas prêter le flanc aux critiques, certes, mais que ceux qui n'ont jamais pêché en matière de SEO jettent la première ... pierre. :-)

* * *
[MàJ - 18h30'] En parlant de jeter la pierre, la réaction d'Olivier Duffez qui va troller sur les différents billets (ceux de Thomas, de Jean ou de Fred, par exemple) en commentant d'un air faussement perplexe que cette affaire ne le convainc pas me fait doucement rigoler. Il doit juste être jaloux que Dicodunet fasse un peu moins bien que Wikio sur Google...


Partager sur Facebook

P.S. Le deuxième mot clé, étroitement lié au premier, c'est : CONFIANCE.

, , , , , ,

jeudi 18 septembre 2008

Wikio Labs

Suite à l'annonce conjuguée de la création des Wikio Labs par Pierre Chappaz et Jean Véronis, Jean avait lancé une invitation à une dizaine de blogueurs pour se rencontrer autour d'une bonne table. Ça s'est passé mardi soir.

Tous n'ont pas pu venir, notamment Thierry et Vincent, qui habitent beaucoup plus loin que moi, l'un au Brésil, l'autre au Canada, mais même si Rome n'est pas la porte à côté, je me suis dit que je ne pouvais vraiment pas manquer une telle occasion.

J'ai donc réservé vite fait un vol aller-retour (parti le 16 et rentré hier), et franchement, je ne regrette pas le déplacement. Un vrai plaisir !

Une soirée très stimulante et enrichissante, où j'ai découvert des personnes que je ne connaissais pas ou peu, sinon par blog interposé, comme Jérôme Charron, avec qui nous échangeons depuis déjà quelques années.

Jérôme Charron et Emilie Ogez (motrech.com)
Voici Emilie et Jérôme, les animateurs de MotRech, créé par Jérôme il y a quelques années puis relancé avec la participation d'Emilie Ogez, dans une formule originale où les deux dialoguent au sein de chaque billet. J'aime beaucoup cette façon de bloguer, où ils s'interpellent et se répondent mutuellement.

Ce fut également l'occasion de rencontrer un "pays", Guilhem Fouetillou, directeur général et cofondateur de RTGI, qui m'a fait venir un instant la nostalgie de Bordeaux. Avec Vincent, ils se sont livrés à des échanges particulièrement brillants sur de nouvelles formes de classement. Vincent nous a tracé à la volée une formule mathématique sur la nappe en papier qui valait son pesant de cacahuètes. J'étais tellement largué que je n'ai eu le réflexe ni de la prendre en photo ni de la lui faire signer et de déchirer le précieux bout de nappe. Du vrai Picasso... Les voici en grande discussion avec Pierre :

Vicnent, Pierre Chappaz et Guilhem (rtgi.fr)
Les discours de Guilhem sur les continents documentaires m'ont également beaucoup impressionné (voir ici pour avoir une petite idée de ce dont il s'agit), et je suis sûr qu'Olivier aurait été ravi d'entendre ça... On le voit ici en compagnie d'Alexis (Wikio) :

Guilhem et Alexis (Wikio.fr)
Juste à côté d'Alexis se trouvaient Julien et Jean :

Julien (Marianne2.fr) et Jean Véronis
et à l'autre bout de la table Christophe et Olivier :

Christophe (OuiNon.net) et Olivier (VeillePerso.com)
Et pour finir, vu qu'en règle générale, celui qui prend les photos n'est jamais dessus, Jean a voulu y remédier :

Pierre Chappaz (Wikio) et Jean-Marie Le Ray (Adscriptor.com)
Me voici à côté de Pierre, où j'ai quand même l'air fort étonné ... d'être là !

Lors des discussions il fut également beaucoup question de nuages sémantiques, un peu à la Wordle ou Quintura, mais adaptés aux autres langues que l'anglais. J'espère qu'on en aura bientôt des nouvelles...

Une excellente soirée durant laquelle nous avons également bu un coup, et même plusieurs :-), à la santé des absents que je n'ai pas encore mentionnés : Philippe, Christophe et Nicolas.

Voilà, s'il y a d'autres soirées, n'y manquez pas. Je n'aurai sûrement pas l'occasion d'y revenir de sitôt, mais cette fois-là ce sera vous qui boirez un coup ... à ma santé !

Liens connexes sur les Wikio Labs et sur ce spécial Wikio Lab... ouffe :

Partager sur Facebook

P.S. Vu que j'étais à Paris, j'en ai profité pour rencontrer dans l'après-midi quelques Explorateurs du Web, dont je fais partie. C'était la première fois, et ce fut avec grand plaisir que j'ai fait connaissance "en face à face" avec Xavier de Mazenod, Luc Legay et Franck Dumesnil :

Xavier de Mazenod, Luc Legay et Franck Dumesnil (Explorateurs du Web)
Décidément, on en fait des choses en une journée !

, , , , , ,

lundi 15 septembre 2008

Personal Branding : How to Brand You?

Personal Branding: How to Brand You?

Vous aurez noté que certains de mes billets ont parfois un titre anglais. C'est le cas pour celui-ci, car contrairement aux apparences, il est difficile à traduire. Moins dans les mots que dans les faits.

Dans les mots, le "Personal Branding", c'est l'idée que chacun peut être sa propre marque qu'il s'agit de communiquer, promouvoir, positionner (par rapport à la "concurrence"), etc.

D'où la question How to Brand You?, How to Brand Yourself?

Mais cela reste très difficile à traduire dans les faits pour notre culture francophone, où une connotation sous-jacente et fortement négative est toujours présente, qu'on pourrait rendre par l'équation suivante :
self branding = se vendre = pute !
Car là est le problème, tout au moins chez nous, où l'amalgame personal branding-prostitution vient quasi-naturellement à l'esprit.

Les anglo-saxons, moins prudes en la matière, avec moins d'états d'âme et parfois moins hypocrites, sont pourtant plein de bonnes idées lorsqu'il s'agit de positionner soi-même comme une marque, et donc de savoir se démarquer vis-à-vis des autres (en clair, sur Internet, c'est toute la différence entre "être présents" et "être visibles").

Je vous propose donc cette présentation de David Armano :
Brand "U.0"
View SlideShare presentation or Upload your own. (tags: internet brand)
Dans laquelle il nous propose les 5 B de Building Brand U.0 (lire Brand You.0) :
  1. Be Ubiquitous: Create multiple streams of "you"
  2. Be Social: Effectively manage your "social systems"
  3. Be Interesting: Write, photograph, share, give
  4. Be Remarkable: Do something worthy of a remark
  5. Be Yourself: Let your personality shine through
En français, ça donne quelque chose dans ce genre :
  1. Être ubiquitaire, littéralement être partout à la fois... Nous dirons polyvalent, en créant de multiples "flux" de soi-même (ce qui suppose une certaine familiarité avec différents outils, comme, par exemple, les blogs, le micro-blogging, les univers virtuels etc.)
  2. Être social, en sachant gérer efficacement ses réseaux sociaux, ou, pour faire une analogie avec un ancien billet, en sachant gérer efficacement son interface sociale, son "tableau de bord"
  3. Être intéressant: écrire, photographier, partager, donner
  4. Être remarquable, en faisant quelque chose digne d'être remarqué ... pour mieux se démarquer
  5. Être soi-même, en laissant transparaître, voire éclater, sa personnalité (qui n'est incluse sur aucune plateforme), puisque c'est le ton unique de chacun/e, son empreinte originale, qui peut/doit faire toute la différence.
En réalité, donc, faire son "personal branding" n'a rien à voir avec "être pute". Tout au moins c'est à espérer...


Partager sur Facebook

, , , , , ,

mercredi 10 septembre 2008

Google vs. Edvige

Google vs. Edvige

À l'origine de ce billet est un raccourci saisissant imaginé par un de mes collègues : Google = Edvige.

Selon ses propres mots : « je me disais que la bonne traduction de Gogole était sans doute Edwige »... (sic)

Donc, ici c'est Google-Edvige, là c'est Edvige-Facebook, dont l'auteur de l'article, avocat, nous fait justement remarquer que la création du "fichier" Edvige (sigle d'Exploitation documentaire et valorisation de l’information générale) :
intervient dans un contexte marqué par un affaiblissement considérable de la vigilance des personnes quant à la protection de leurs données personnelles.
Et de poursuivre :
Peut-être supporte-t-on mieux le fichage privé car dans un cas, il y a consentement, et pas dans l’autre ?
Pour autant, en comparant Google ou Facebook avec Edvige, est-ce qu'on ne compare pas les torchons et les serviettes ? Car si l'on peut considérer qu'il y a fichage, dans un cas comme dans l'autre, parle-t-on d'un fichage de même nature ?

Non ! Il faut le dire clairement. Et avant de conclure que le fichage « privé » ferait moins peur car n'émanant d'aucun gouvernement, mieux vaut essayer de tirer l'écheveau pour dénouer ce sac d'embrouilles.

Signalons tout d'abord qu'Edvige n'est qu'un fichier parmi d'autres dans l'ample panoplie du fichage gouvernemental, qui compterait en tout, avec Edvige, 37 fichiers différents. Plus que des fichiers, d'ailleurs, il s'agit de véritables bases de données. Qui contiendraient, pour nous limiter à Edvige, à destination de toutes les personnes physiques âgées de treize ans et plus :
― informations ayant trait à l'état civil et à la profession ;
― adresses physiques, numéros de téléphone et adresses électroniques ;
― signes physiques particuliers et objectifs, photographies et comportement ;
― titres d'identité ;
― immatriculation des véhicules ;
― informations fiscales et patrimoniales ;
― déplacements et antécédents judiciaires ;
― motif de l'enregistrement des données ;
― données relatives à l'environnement de la personne, notamment à celles entretenant ou ayant entretenu des relations directes et non fortuites avec elle.
Toutes les personnes physiques âgées de treize ans et plus relatives à l'article 1, s'entend, article 1 qui n'est pas mal non plus, puisqu'il autorise le ministre de l'intérieur à mettre en œuvre un traitement automatisé et des fichiers de données à caractère personnel ... ayant pour finalités... :
  1. De centraliser et d'analyser les informations relatives aux personnes physiques ou morales ayant sollicité, exercé ou exerçant un mandat politique, syndical ou économique ou qui jouent un rôle institutionnel, économique, social ou religieux significatif, sous condition que ces informations soient nécessaires au Gouvernement ou à ses représentants pour l'exercice de leurs responsabilités ;
  2. De centraliser et d'analyser les informations relatives aux individus, groupes, organisations et personnes morales qui, en raison de leur activité individuelle ou collective, sont susceptibles de porter atteinte à l'ordre public ;
  3. De permettre aux services de police d'exécuter les enquêtes administratives qui leur sont confiées en vertu des lois et règlements, pour déterminer si le comportement des personnes physiques ou morales intéressées est compatible avec l'exercice des fonctions ou des missions envisagées.
Plus ici...

En clair, et notamment au lu du point 2. (susceptibles de porter atteinte à l'ordre public), ça veut dire que toute la population française, dans une circonstance ou une autre, pour une raison ou une autre, peut tôt ou tard être amenée à se retrouver dans le ventre d'Edvige...

Voilà pour la partie "publique" de la chose. Voyons maintenant ce qu'est le "fichage" côté privé, et en quoi Edvige est différent de Google ou Facebook. En commençant par Facebook, comme je l'ai détaillé dans un billet sur le ciblage publicitaire et comportemental selon Facebook :
Lieu / Sexe / Âge / Mots clés de son choix / Formation / Diplôme d'université / À l'université / Au lycée / Universités / Major / Année, etc. / Lieux de Travail / Relation / Célibataire / Fiancé(e) / Marié(e) / Intéressé(e) par hommes - femmes /
Ajoutons-y l'orientation politique aux US :


et précisons que le choix de renseigner ces champs est totalement facultatif, voire fantaisiste (vous y mettez ce que vous voulez), autant d'options qui ne se posent pas avec Edvige...

Donc, première question : cocher les cases ci-dessus ou saisir quelques mots à la volée peut-il constituer une atteinte à la vie privée ? Et en quoi ?

D'autre part, la collecte d'infos "personnelles" par les grands acteurs du Web n'est déclenchée que par certains événements, des « Data transmission events ».
Citons, à titre d'exemple, les données collectées :

- lors des recherches de l'internaute ;
- lors de ses achats ;
- lorsqu'il clique sur une pub ;
- lorsqu'il s'enregistre sur un service ;
- grâce aux cookies, etc.

Tout ça permettant à qui les possède en bout de chaîne d'obtenir des informations précises sur nos habitudes, nos intérêts, et ainsi de suite. Le graal des publicitaires et des marketers de tout poil, en quelque sorte !

On pourra toujours s'interroger pour savoir si ces données sont collectées à notre insu ou non, bien que je me demande franchement quel internaute naviguant régulièrement sur Internet ne serait pas encore au courant !?

Par ailleurs, menée aux États-Unis en décembre 2007 sur le trafic imputable aux quinze plus gros acteurs américains de l'Internet, je ne doute pas que les résultats de l’étude puissent être extrapolés au Web mondial, puisque de toute façon la tendance est irréversible, autant le savoir...
La collecte globale de toutes ces données n'ayant qu'un but, comme je le dis à propos de Google :
(analyser) mes habitudes de navigation, identifier mes goûts, me profiler par un ciblage comportemental le plus précis possible, et pouvoir ainsi me présenter les pubs qu'elle jugera les plus pertinentes, les plus susceptibles de me faire cliquer, réagir, acheter, etc.
Donc en comparant le "fichage privé" au "fichage public" à peine décrits, et même si l'on veut mettre les conditions d'utilisation de Facebook ou des services de Google sur la balance, la seule conclusion qui me vient est celle-ci : ils ne sont pas comparables. En aucun cas.

Par conséquent, celles et ceux qui pensent avoir tout dit en comparant Google, Facebook & Co avec Edvige et ses frères et sœurs dont disposent peu ou prou tous les gouvernements de la planète, feraient mieux de peaufiner leur analyse avant de dire n'importe quoi. Et il serait peut-être temps aussi d'en finir avec la paranoïa généralisée sur Google et autres, à moins que ça ne serve d'alibi pour ne pas voir les vrais problèmes que nous posent les états qui nous gouvernent en promulguant des législations toutes plus débiles les unes que les autres.

Car Edvige, à l'instar de tous ces prénoms qu'on donne aux cyclones tropicaux qui dévastent des populations entières, me fait plutôt penser à une catastrophe naturelle anthropique de très grande ampleur... Du genre HADOPI, rien que pour en citer une autre. Alors non à Edvige !

Mais franchement, rien à voir avec Google. En Italie, ma vie privée est en danger dès aujourd'hui (enfin, ça fait déjà plusieurs années...), et la menace vient d'un "gouvernement démocratiquement élu" et de son chef, Silvio Berlusconi. Qui s'en prend d'ailleurs aussi à Google.

C'est peut-être un hasard, mais un proverbe italien dit : "les ennemis de mes ennemis sont mes amis"...


Partager sur Facebook

, , , , , , , , , , , , ,

Moteurs de recherche alternatifs : 2% du marché !

Moteurs de recherche alternatifs : 2% du marché !

Alt Search Engines, un excellent site sur les moteurs alternatifs à GYM, nous propose les dernières stats d'Hitwise sur les parts de marché des moteurs aux États-Unis :


La conclusion est sans appel : sur un an (août 2007 - août 2008), les parts de marché des moteurs alternatifs ont chuté de 3,13% à 1,96%.

Le billet conclut ainsi : Commentaires ? Idées ? Solutions ?

Commentaires

Ce qu'attendent les internautes d'un moteur, essentiellement, c'est la pertinence. Or la pertinence s'obtient autant sur le qualitatif que sur le quantitatif. Impossible de remonter des résultats pertinents si l'on a l'un sans l'autre.

Le qualitatif, c'est la précision de l'algorithme.
Le quantitatif, c'est l'exhaustivité de l'index.


Comme je le disais déjà lors d'une précédente comparaison de l'index des moteurs de Google, Yahoo et Microsoft, il convient de préciser :
L'augmentation de la taille de l'index n'est pas forcément corrélée à l'augmentation de la pertinence, celle-ci ne dépendant pas uniquement de la couverture, mais il est clairement impossible de retourner le résultat pertinent tant que la ressource correspondante n'est pas indexée.

[C'est la composante quantitative]

A contrario, un moteur peut très bien avoir le site pertinent dans son inventaire et rester silencieux, c'est-à-dire ne pas sortir le résultat. En fait, pour un moteur, il est encore pire d'avoir un site dans son index sans comprendre que, pour une requête donnée, le site pertinent, c'est justement celui-là !


[C'est la composante qualitative.]
Or aujourd'hui, Google est LE moteur qui a trouvé le meilleur mix entre ces deux composantes. Exemple : Cuil a la première sans avoir la seconde, tandis qu'Exalead a parfois la seconde sans avoir la première. Ils y travaillent, mais c'est probablement le lot des outils de recherche alternatifs que de pouvoir difficilement réunir les deux dans une proportion satisfaisante.

Or dans les deux cas, le résultat est le même : on n'a qu'une pertinence quali-quantitative partielle, et donc, autant dire qu'on n'a plus de pertinence du tout.

Idées

À court-moyen terme, je ne vois aucun moteur capable de renverser la suprématie de Google. Je ne crois pas que les gens aiment Google en soi, mais juste parce que c'est le moteur qui leur fournit les meilleurs résultats. Si demain une société sort un meilleur moteur, il y aura un déplacement massif des internautes vers ce nouvel acteur. Si...

Car c'est plus facile à dire qu'à faire, et concrètement, non seulement personne n'y arrive, mais en plus Google continue de gagner des parts de marché. Pourquoi ?

Ma seule réponse : parce qu'il est plus pertinent que les autres. C'est tout.

Donc la question n'est plus de savoir qui détrônera Google sur son terrain - personne - (tout au moins à un horizon temporel prévisible), mais quand y aura-t-il rupture avec l'existant : rupture culturelle, rupture technologique, rupture des usages, etc.

Et comme je le commente sur le blog d'Olivier Andrieu, je ne vois encore nulle trace de cette rupture à venir, car les esprits ne sont pas prêts, le Web est trop jeune et va trop vite compte tenu de nos simples capacités physiologiques.

Solutions

Il est clair de ce qui précède que je ne vois aucune solution généralisable. Par contre il y a certainement des solutions individuelles pour chercher sans Google. Mais ce sont des solutions que chacun/e doit personnaliser à sa mesure, et ce qui vaut pour moi ne vaut plus pour le voisin.

À chacun/e son cocktail, avec des dosages qui dépendent de nos propres capacités à appréhender le Web. Deux exemples :

1. Szarah :
Mes recherches, je les fais avec un métamoteur, je n'ai jamais cherché à savoir combien de Google il y avait dedans.
J'utilise IE et FF, XP et Ubuntu, ça dépend de la machine que j'utilise.
Je ne crois avoir de "préférences" pour personne mais j'ai de la reconnaissance pour tous.
Pour Apple et son interface, pour Microsoft en ceci qu'il a permis une informatique "à la Apple" mais dans mes moyens, pour FF qui est venu contrer MS devenu hégémoniaque, pour Linux pour le même motif.

Et il se trouve que je n'ai pas besoin de Google.
Ni de près ni de loin.
Il ne me sert à rien (sauf comme sujet d'étude mais c'est une activité de loisirs).
Une position qui ne me convainc qu'à moitié, car dans tout métamoteur, la part de Google est prépondérante. Donc la pertinence des résultats retournés par le métamoteur dépend étroitement de Google. Enlevez Google des métamoteurs et, vous savez quoi : vous reviendrez à Google ! Tout au moins si vous vous souciez d'obtenir des résultats pertinents.

2. Narvic se forge ses propres outils de recherche d'informations, et compte sur des stratégies de recherche sociales pour faire mieux que Google.

Personnellement, je partage plutôt l'opinion de Chris Sherman sur la recherche sociale, mais je conçois aisément que d'autres préfèrent une telle approche.

Ceci dit, hors de ces approches personnalisées (y compris via Google CSE), je ne vois à court terme aucune possibilité réaliste de détrôner Google.

En tout cas, ce n'est certes pas Quaero qui apportera des solutions...


Partager sur Facebook

, , , , , ,

mardi 9 septembre 2008

Google and the Universal Translation Memory

Version française

Blown away from the outset by Google’s speedy and significant break into machine translation, I have long been predicting its brilliant progress in the field of translation. Surely there are quite a few surprises left to come.

I’m at the point where instead of the operator define:, sometimes I test the operator translate: just to see if it has been implemented since I last checked. And it seems that the moment has arrived, with the translation onebox (Via Google Live).

Apparently, it currently only concerns common expressions, although it is likely it will cover all terms already included in Google’s dictionaries.


I tried with Italian but it doesn’t work yet. Even so, it is likely that as soon as the future Google Translation Center is up and working, this operator will also search for translations in the bitexts that will populate the universal translation memory an army of translators is developing daily.

Remember that this memory also helps Google self-teach, and “bitext” refers to a source text (or starting text) and a target text (or final text) set side by side in alignment. Example.

In fact, the operator does not seem to function the same way as define:, where you use the English term no matter what language you speak.

With "translate", it’s apparently the operator that defines the target language: when you type translate ordinateur Google directly interprets this to mean translation from French to English, whereas with traduire computer, it interprets English to French.

So, if we engage in a brief forward-looking exercise, we can easily imagine that in the very near future, not only will Google be able to match the operator to your profile by default (that is, knowing you are English, it will offer you terms translated into English by default, unless you indicate otherwise), but it will also (and most importantly) be able to draw from practically all the terms in human language, in all languages, as the universal translation memory gradually takes shape.

It will be filled as much by the human translators who use Google’s tools to translate, as by its large-scale automated technologies (not to be confused with the implementation of an automatic translation system in a company, for example), or even by the alignment of literary classics that make up our common heritage and which are already translated into countless languages.

For the layman, aligning a text is taking for example Victor Hugo's Les Misérables breaking it into segments and aligning the segments of the original text with the corresponding segments translated into the language(s) of your choice (noting that a segment does not necessarily correspond to a sentence, which will be broken into multiple segments if it is too long, for example). You do this with French-English, and you have the French-English memory of Les Misérables. Then you do the same thing with English-Italian, Spanish-German, Russian-Chinese, etc., and you get as many memories as there are languages into which a work has been translated.

The Rosetta Stone is a perfect example of aligned texts. And if I could only mention one more, think of the thousands of translations of the Bible that already exist...

Add to that the great classics from around the world that are already in digital format, build the corresponding translation memories in the language pairs you have access to, and you can easily understand that we are not far from being able to align practically the whole of human language, from every era.

Since the dawn of humanity, no one has ever been able to do that. Until Google...

The talk about Google and translation is not over yet. In fact, it’s only beginning!


Partager sur Facebook

, , , , , , , , , , ,