mardi 2 décembre 2008

Du futile au futur : l'avenir de la presse est-il écrit ou à écrire ?

Le 20 novembre 2008 a été déposé au Sénat l'avis numéro 100 du Tome VI de Projet de loi de finances pour 2009, signé par M. David ASSOULINE et consacré aux médias, aux avances à l'audiovisuel et à la presse.

On y apprend des choses, bien sûr. Et notamment qu'un avis favorable a été donné à l'adoption des crédits pour 2009 du programme 180 « Presse » de la mission « Médias », avant même que ne se concluent les légendaires États Généraux de la Presse écrite...

Pour autant, même si l'avenir de la presse n'est pas écrit, les chèques sont signés !

Parmi les critères qui rendent la situation économique de la presse écrite particulièrement préoccupante, selon le rapport, citons notamment :
  • Un lectorat en déclin
  • Une concurrence accrue sur le marché publicitaire
  • L'intérêt croissant des annonceurs pour Internet et la presse gratuite
  • Une évolution en ciseaux des recettes publicitaires de la presse (...) à craindre sur la longue période
  • Le maintien de coûts fixes élevés
  • La progression du prix du papier (...) fortement corrélée à la demande internationale
  • Des coûts de fabrication plus élevés que la moyenne européenne
  • Des modes de diffusion en profonde mutation
  • Un besoin de rénovation à tous les niveaux, etc.
Ça fait quand même beaucoup... D'où le constat d'une rénovation indispensable du dispositif d'aides à la presse, directes et indirectes, adapté aux défis du secteur :
  1. Les aides à la diffusion : à la recherche de nouveaux circuits et modes de distribution
  2. Les aides au pluralisme : consolider l'assise financière des entreprises de presse tout en renforçant la confiance des lecteurs dans l'indépendance de la presse
  3. Les aides à la modernisation : aider la presse à ne pas manquer le rendez-vous du numérique
  4. La nécessité d'accompagner l'Agence France-Presse dans ses mutations technologiques
Ça fait beaucoup là encore...

Mais face à une presse écrite payante française, qui « devrait être globalement déficitaire dès 2010-2011 et enregistrer une perte de 700 à 800 millions d'euros à l'horizon 2015 » (source : OC&C Strategy Consultants), le tout s'accompagnant d'une « réduction drastique des recettes de la presse d'information politique et générale », au point de reculer de 15 ans en tombant en 2008 au plus bas niveau de 1993 :


il me semble logique de compenser les pertes par l'argent du contribuable. La péréquation, ça s'appelle, ou égalité dans la répartition...

Alors allons-y gaîment avec le programme 180 :
Dans ce contexte extrêmement morose pour la presse quotidienne payante, les crédits alloués au programme 180 « Presse » de la mission « Médias » s'élèvent, en 2009, au même niveau que ceux inscrits en loi de finances initiale pour 2008, soit 284,6 millions d'euros en autorisations d'engagement (AE) et 279,6 millions d'euros en crédits de paiement (CP). Dans le cadre de la programmation triennale, ils seront ensuite ramenés à un montant de 279,6 millions d'euros en AE (274,6 millions d'euros en CP) en 2010, puis à 274,6 millions d'euros en AE (269,6 millions d'euros en CP) en 2011.

Le programme 180 se compose de deux actions :
- une action relative aux « Aides à la presse », dotée de 175,2 millions d'euros ;
- une action consacrée aux « Abonnements de l'État à l'AFP », dotée de 109,4 millions d'euros.
Ajoutez ça aux aides perçues pendant ces quinze dernières années, depuis 1993, justement :


et vous verrez que nous ne sommes pas loin d'une pilule globale de 20 milliards d'euros ! Oui, vous avez bien lu : 20 MILLIARDS D'EUROS.

On comprend parfaitement que le modèle est à perpétuer. Surtout pour ceux qui encaissent... À quand l'aide pour les blogueurs, je me demande !

Bon, rassurez-vous, cela n'empêchera pas le prix des journaux d'augmenter, faut pas exagérer non plus. L'évolution tarifaire au 1er janvier de chaque année est d'ailleurs déjà programmée jusqu'en ... 2015 (oui, vous savez, quand les pertes devraient s'élever à 700 ou 800 millions d'euros, ne chipotons pas, nous ne sommes quand même pas à 100 millions d'euros près) :


Sans compter que ces différentes subventions ne sont pas exemptes de dégâts collatéraux...

Mais bon, une fois encore, soyons assurés que la gestion des finances de l'état sera conforme à ce qu'on attendrait d'un bon père de famille, comme toujours...

Voilà pour le futile (clin d'œil). Passons au futur.


Premier prix : un contrat d'embauche !

Mais le futur, c'est également ça : le Huffington Post vient de lever 15 25 millions de dollars de fonds publics privés !

Ainsi pendant que les américains réinventent leur journalisme en tentant d'innover à 360°, en France on collectionne les rapports :
  1. Rapport Spitz - Les jeunes et la lecture de la presse quotidienne d'information politique et générale (octobre 2004)
  2. Rapport Muller - Garantir le pluralisme et l'indépendance de la presse quotidienne pour assurer son avenir (juin 2005)
  3. Rapport Lancelot - Les problèmes de concentration dans le domaine des médias (décembre 2005)
  4. Institut Montaigne - Comment sauver la presse quotidienne d'information ? (août 2006)
  5. Rapport Tessier - La presse au défi du numérique (février 2007)
  6. Rapport de Broissia - Presse quotidienne d'information : chronique d'une mort annoncée ? (octobre 2007)
  7. Rapport Giazzi - Les médias et le numérique (septembre 2008)
Etc. etc. Plus d'un rapport par an, et avec tout ça ces cons de décideurs qui sont pas foutus de décider autre chose que la perpétuation de rentes de privilèges ! Mais c'est toujours nous qu'on paye, il va sans dire...

Et pourtant, il y aurait des solutions. Prenons l'exemple des petites annonces :
(2) Vers la disparition des petites annonces des colonnes de la PQN ?

L'évolution des recettes de petites annonces est plus contrastée entre les différentes catégories de presse quotidienne d'information politique et générale.

S'agissant de la presse quotidienne nationale, les résultats de l'enquête statistique annuelle sur la presse écrite menée par la Direction du développement des médias révèlent que les recettes de petites annonces se sont contractées de 4,6 % en 2006. Si celles-ci comptaient pour 320 millions d'euros dans les recettes de la presse nationale d'information en 1990, elles ne représentent plus aujourd'hui que 70 millions d'euros soit à peine 5 % du chiffre d'affaires total de cette catégorie de presse.

A contrario, les résultats obtenus par la presse locale incitent à l'optimisme. Celle-ci a su en effet maintenir et même renforcer la part des petites annonces dans ses recettes commerciales. Ces annonces ont progressé de 42 % depuis 1990 et représentent désormais près de 17 % de ses recettes.

On peut en conclure que le support des journaux locaux est mieux adapté aux petites annonces que les quotidiens nationaux généralistes. Les petites annonces publiées autrefois dans ces derniers ont massivement migré vers les journaux gratuits et internet, ce qui conduit à s'interroger sur l'avenir de cette catégorie d'annonces et de recettes dans les pages et les bilans de la presse quotidienne nationale payante.
Or il y a un moyen radical de renverser la tendance ! Alors pourquoi personne ne le fait ?

Enfin, heureusement qu'il y a chez nous des journalistes qui savent encore de quoi ils parlent :

AFP Media Watch Automne Hiver 08 09
Après la tempête, le beau temps revient, paraît-il... Alors, l'avenir de la presse : écrit ou à écrire ? Qu'en pensez-vous ?


Partager sur Facebook

, , , , , , , , , , ,

samedi 29 novembre 2008

La question du sens

La question du sens

Réflexion initiée à la lecture de ce billet de Narvic, dans lequel il relève qu'on assiste à une productivité d' "information" à grande échelle, « sans que jamais la question du sens ne soit injectée à aucun moment dans les procédures de traitement. », et où le journaliste se trouve « surclass(é) sur bien des aspects décisifs : efficacité, production, coût, bref... productivité. » Et d'ajouter :
Reste le terrain du sens, si cette question a encore un sens...
Une problématique qui dépasse largement les seuls journalistes, selon moi, et que l'on peut tranquillement étendre à l'ensemble des internautes.

Et même hors Internet, puisque n'oublions pas qu'il y a encore, "out there", cinq fois plus de gens que la population des internautes, qui ne se sont jamais connectés au Web...

Or la question du sens est, à mon sens, si je puis dire, LA question à se poser, en tout cas celle que je me pose depuis le début : Quel est le sens de ma présence sur Internet ?

Le sens étant, toujours selon moi, la première des trois composantes de notre présence sur Internet.

C'est d'ailleurs pour cela que j'ai souhaité faire d'Adscriptor un lieu de sens, un lieu d'analyse et de contextualisation de l'info brute, où je préfère me taire quand je n'ai rien à dire et que je tourne en rond.

Inutile de participer à l'amoncellement de strates bloguesques où seule compte la superficie, qui ont pour unique intérêt de se substituer les unes aux autres à la vitesse de la lumière, frappé par crainte d'une désertion répressive des "abonnés" dès que vous arrêtez d'enfiler les actus kleenex comme des perles sur un collier.

Pour autant les agences de presse telles l'AFP et autres ne sont-elles pas des canons à dépêches dont se nourrissent bon nombre de journaux sans trop se demander ce qui se passe derrière...

Donc avec Internet, à part amplifier le phénomène vu la puissance inouïe de ce nouveau média, dans l'absolu quelle serait la différence avec avant ?

Om Malik voit se dessiner un avenir divisé en deux courants : d'un côté, un déferlement ininterrompu d'infos brutes provenant de sources diverses - Twitter, téléphonie mobile véhiculant messages, photos et vidéos, ou encore témoignages directs d'un événement obtenus via les réseaux sociaux -, et de l'autre les médias traditionnels, qui seraient chargés d'analyser et de contextualiser l'info en y apportant de l'intelligence ! Le tout en temps réel :
And that’s when I realized that the future of media is being split into two streams: one that consists of raw news that comes like a torrent from sources such as Twitter, mobile messages and photos, the other, from old media. The eyewitness dispatches (and photos) via social media are an adjunct to the more established media — which needs to focus on providing analysis, context, and crucially, intelligence — in real time.
Approche séduisante mais presque totalement contredite dans les faits, puisque de plus en plus les journalistes "traitent" l'info un peu n'importe comment (voir ici, , et là encore...), en caressant le public dans le sens du poil et des intérêts de leurs éditeurs. Je ne dis pas tous, mais beaucoup, inutile de le nier. L'indépendance des journalistes a fait long feu, même s'il existe encore quelques journalistes indépendants et fiers de l'être, heureusement !

Toutefois ils sont plutôt l'exception qui confirme la règle que le contraire. Cela dit, je ne partage pas vraiment l'analyse de Narvic lorsqu'il pense :
J’en suis au point d’estimer que sur internet se joue l’affrontement de deux approches, deux visions, deux théories de l’information, incompatibles et alternatives l’une de l’autre. Elles avaient évolué avant internet dans des sphères séparées, mais elles se rencontrent aujourd’hui sur ce terrain d’internet. Et l’une est en passe de supplanter l’autre.
Franchement, je ne vois pas pourquoi l'une devrait supplanter l'autre. Je ne crois pas au "celle-ci tuera celle-là". Je les imagine plutôt forcées de cohabiter et d'évoluer ensemble. Une vision personnelle que j'ai déjà tenté d'expliciter :
Dans cette ère nouvelle du one-to-one (ou many-to-many, ou many-to-one, ou one-to-many...), l'information ne se bâtit plus sur un modèle vertical, top-down qui plus est, mais horizontal, transverse, de liaisons (liens).

Par agrégation/associations d'idées, d'infos, de liens, de billets, de vidéos, de pages de résultats de moteurs, de micro-messages, de fils de discussion, de présentations, de documents partagés, etc. En clair : de tout ce qui peut faire sens. Indépendamment du support.

Et pour terminer sur un parallèle, de même qu'un organe de presse commet une erreur évidente et grossière en pensant que "son" site pourrait être assimilable à TOUT le Web, ainsi en va-t-il de l'article, que personne ne peut plus sérieusement considérer aujourd'hui comme un tout, qui ferait le tour de l'info.

L'heure est donc venue pour les journalistes d'écrire des articles - s'ils tiennent à conserver le terme -, qui feront sens plus par leurs connexions avec le reste de l'infosphère que par leur exhaustivité, une utopie à jamais révolue.

Dans l'infosphère, l'info n'a plus de centre.
Elle n'a plus de centre, mais elle a encore un sens : celui que chacun/e lui donne...


Partager sur Facebook

, , , , , , , , , , ,

jeudi 27 novembre 2008

Je tourne en rond

Je tourne en rond...

... comme un fauve en cage. Plus rien à me mettre sous la dent ! Pas le temps de m'adonner à de longues analyses, pas le temps de décortiquer l'actu du Web, pas vraiment transcendante en ce moment, il faut bien le dire, si ce n'est de temps en temps une info qui me réjouit, comme quoi toutes mes élucubrations sur l'affaire Martinez n'étaient pas que des brèves de comptoir, n'en déplaise à Eolas la menace, hélas !

Mais bon, ne croyons pas que la justice française soit guérie pour autant...

Niveau Web international, il nous faudrait une bonne breaking news du genre Apple rachète Yahoo!, ou Nokia à la limite, Icahn doit en rêver puisqu'il vient d'augmenter sa participation. À moins qu'il ne sache des choses qu'on ignore, c'est bien possible aussi...

Sinon demain je suis ici, et les 9 et 10 décembre au Web 08 !

Il reste encore près de 200 places si ça intéresse quelqu'un, en saisissant le code BLOGDISCOUNT vous pouvez en obtenir à 1435,20 € au lieu de 1794 €. J'ai déjà compté plus de 800 sociétés participantes, et pas des moindres... Donc à la revoyure à Paris ?



Partager sur Facebook

, , ,

dimanche 23 novembre 2008

Alltop spamme Twitter !

Alltop spamme Twitter !

C'est une première ! En tout cas pour moi. Le flux de Alltop.com vient spammer les updates de mon compte Twitter. Il suffit que j'envoie un message sur Twitter pour que dans l'heure qui vienne il passe au second rang, phagocyté par une mise à jour automatique d'Alltop. Et je précise que ça se passe bien sur le compte Twitter, directement, et non pas sur le widget, qui ne fait qu'afficher les updates.

À moins que ça ne vienne pas d'eux. Mais de qui alors ? Et comment est-ce possible ?

Soit Alltop m'a fait cliquer sur un lien pour me piéger, soit je n'ai rien cliqué du tout, mais le résultat est le même : ils me spamment !

Voici deux captures d'écran : regardez les heures, et vous verrez que dès que je poste un message ils arrivent derrière pour se mettre en première position. J'avais effacé tous les précédents, mais ça ne sert à rien, puisque si je ne résous pas le problème à la racine, ils vont me polluer à n'en plus finir.



Tiens, je m'en vais toucher deux mots à Guy...


Partager sur Facebook

, , , , , ,

Dimension sociale de la traduction

Le travail de traducteur n’est pas uniquement individuel, mais aussi social, bien que nombreuses et nombreux soient les réfractaires à une mise en réseau des compétences, des expériences, des ressources…

Des ressources disséminées à travers le Web qui gagneraient certainement à être catégorisées et centralisées derrière un nombre restreint de points d’accès, c’est-à-dire à l’opposé de la situation actuelle, où l’éparpillement règne et rend leur détection difficile.

Car dans l’océan planétaire d’Internet, les mots – ou les termes, si vous préférez – sont les données non structurées par excellence, de par la multiplicité des domaines, des langues, des formats de documents, des publics destinataires et ainsi de suite.

Donc regrouper tout cela sous l’appellation générique de traduction, voire de localisation, ne rend pas justice à la diversité des situations, des contextes, des nécessités, etc.

Sans compter ce que nous appellerons le Web terminologique invisible, notamment les disques durs des traducteurs et des clients qui regorgent de trésors terminologiques enfouis, ne demandant qu’à être découverts.

Naturellement, la confidentialité vis-à-vis de ses données et de ses clients est une chose sérieuse, déontologie oblige, mais tout n’est pas confidentiel, tout n’est pas secret.

Et à force de ne jamais vouloir rien révéler de son travail, on en finit par cacher aussi ce qui pourrait être partagé ! C’est ainsi que le moteur Translation 2.0 est né d’une collection de favoris : près de 5 000 ressources riches en terminologie multilingue, accumulées depuis plus d’une décennie de recherches sur le Web.

Autant en faire profiter d’autres plutôt que de tout conserver stérilement sur mon PC !

Pour citer un autre exemple connu, il suffit de penser aux très riches glossaires multilingues de Microsoft, qui aurait fort bien pu les considérer comme un actif propriétaire et tout garder au seul bénéfice de ses employés. Au contraire, en les mettant gratuitement à la disposition de tous, ce sont plus de 12 000 termes anglais traduits dans près de 60 langues en libre accès !

Donc, pour en revenir à cette fameuse dimension sociale, elle est indispensable à tous les aspects professionnels du métier : chacun/e devant impérativement faire du networking pour se former, s’informer, se mettre à jour, s’entraider, demander conseil, travailler en mode croisé – traducteur + relecteur –, voire organiser des équipes sur les projets complexes, trouver les bonnes ressources, techniques ou terminologiques, échanger des dictionnaires, de la documentation de référence, ou, surtout, pour celles et ceux qui vivent à l’étranger, rester en contact avec leur langue et les implications socioculturelles qu’elle véhicule…

Ce sera en partie l'objet d'une présentation sur l'employabilité des traducteurs que je ferai la semaine prochaine à Hammamet, intitulée « LA TRADUCTION : DE LA FORMATION À L'EMPLOI - Comment utiliser Internet pour une transition réussie ? »

Concluons en disant que la traduction ne concerne pas que les traducteurs de métier, mais plus largement celles et ceux qui s’intéressent aux langues et à leur dimension sociale : comment apprendre à se comprendre au-delà des barrières linguistiques, pour mieux communiquer et partager.

Autrement dit, les internautes de tous pays et de toutes cultures !


Partager sur Facebook

, , , , , ,

jeudi 20 novembre 2008

Large-Scale Translation Memories (Google)

"Large-Scale Translation Memories" by Google, ou les mémoires de traduction à (très) grande échelle...

Après une brève, une longue...

Ce que j'ai appelé "mémoire de traduction universelle", Google l'appelle probablement "very large-scale translation memory". J'ai découvert ça dans mes référents le mois dernier : en cherchant "large-scale translation memories" dans le moteur, un Googler est arrivé sur la version anglaise de mon billet intitulé Google and the Universal Translation Memory !

large-scale translation memories
Expression clé qui ne produit telle quelle aucun résultat aujourd'hui, et tout juste cinq dans sa version au singulier, dont trois uniques :
  1. a soon to be introduced "large-scale Translation Memory" server
  2. a "large scale translation memory" database
  3. implementation of Xerox's XTM "large scale translation memory" system
large-scale translation memory in SERPs
Voilà. Donc à présent rien n'existe qui serait proche de la notion de "mémoire de traduction universelle" telle que la conçoit Google avec son Centre de traduction, pour l'instant encore en version de bêta-test réservée à des testeurs invités.


D'ailleurs si quelqu'un sait comment avoir une invitation, pensez à moi, ce serait sympa !

Pour l'heure, ces Large-Scale Translation Memories, ces mémoires de traduction à grande échelle ne sont implémentées que par de très grosses organisations (Xerox, Union européenne, etc.) et par des LSP d'envergure mondiale. Je me limiterai à mentionner Logoport de Lionbridge, voir ici pour plus de détails.

Cependant, outre qu'elles se confinent au technique (si l'on peut dire), ces mémoires ont le - très - gros défaut d'être propriétaires. En ce sens que lors d'une traduction effectuée sur ces systèmes, la propriété de la mémoire est phagocytée par l'agence, les traducteurs n'ayant plus aucun contrôle sur ce qu'ils produisent...

Idem pour les solutions de traduction automatique déployée en entreprise, dont la mise à disposition de la mémoire, quand elle a lieu, se limite au courtage.

Et même si une initiative open source comme GlobalSight, lancée par Welocalize (qui fait partie de TAUS), devrait voir le jour en janvier 2009, avec Google on change d'échelle. Et de modèle économique (notamment sur les questions de propriété intellectuelle)...

Dans ce cadre, les seules notions de mémoire approchantes qui existent sont, à ma connaissance, les projets TAUS et VLTM, le premier se distinguant davantage par sa portée potentielle, vu le nombre (une quarantaine de membres fondateurs plus une soixantaine de candidats en attente, outre l'implication probable de la Commission européenne) et la qualité des acteurs impliqués, et le deuxième par sa philosophie "libre", plus "grand public" dirons-nous.

* * *

TAUS, Translation Automation User Society, a pour vision et pour mission, via la TAUS Data Association, des objectifs ambitieux, davantage détaillés dans son business plan :
  1. Legitimate and secure platform for storing, sharing and leveraging language data.
  2. Access to large volumes of trusted language data for increased translation automation.
  3. Industry collaboration to promote harmonization of multilingual terminology.
Pour vous donner une idée du sérieux de l'affaire, on compte parmi les membres du Comité de pilotage des représentants de Microsoft, Intel, Sun Microsystems, Welocalize, Adobe et le Bureau de la Traduction du Gouvernement canadien.

Les données linguistiques, ou pour mieux dire, les "actifs linguistiques" seront sélectionnés et centralisés par les membres de l'Association : « TDA will give free access to its databases for the look-up of translations of terms and phrases. Members will be able to select and pool data to increase translation efficiency and improve translation quality. »

Sur la liberté d'accès à tous, il semble plutôt que le portail permettra à l'internaute lambda d'obtenir quelques infos essentielles sur la base, juste histoire de lui donner envie de payer pour pouvoir utiliser les données. Il faudra donc voir la version "live" à l'usage pour juger sur pièce, mais en clair, cette apparente gratuité ne sera qu'un "produit d'appel" pour passer à la caisse...

C'est d'ailleurs pourquoi l'initiative de Google ne laisse pas TAUS indifférent :


Article à lire...

* * *

Par rapport à TAUS, à vocation plus "industrielle", le projet VLTM (Very Large Translation Memory) de Wordfast est davantage "artisanal", puisqu'il suppose l'utilisation du logiciel de TAO, excellent mais quasi exclusivement réservé aux traducteurs de métier.

Ce serait d'ailleurs bien qu'Yves Champollion, que j'ai le plaisir de connaître, communique davantage sur le projet, sur sa philosophie, et donne peut-être quelques stats sur son utilisation.

Pour autant, l'initiative est tout aussi sérieuse que la précédente, parole de Champollion, bon sang ne saurait mentir ! Puisque Jean-François, son aïeul illustre, réussit à déchiffrer les hiéroglyphes grâce à la pierre de Rosette, découverte pendant la campagne d'Égypte, une stèle qui est à proprement parler l'ancêtre des mémoires de traduction (même si maintenant c'est un peu plus compliqué...) !


En effet, cette pierre aligne en parallèle trois inscriptions d'un même texte, dont deux en langue égyptienne et la troisième en grec, langue connue, ce qui a permis le déchiffrement.

* * *

Donc je le répète, et j'insiste lourdement là-dessus, ce qu'il y a de nouveau avec Google dans ce domaine, c'est à la fois l'échelle, superlative, et la rupture totale des modèles économiques pré-existants.



Car comme l'explique fort bien Franz Josef Och, Responsable recherche et traduction automatique, la clé des modèles de traduction selon Google, perpétuel apprenant, c'est de pouvoir disposer, d'une part, d'énormes quantités de données linguistiques (very large amounts of datas), et de l'autre, d'une phénoménale puissance de calcul qui traite à très grande vitesse des milliers de milliards de mots (aussi bien données textuelles que vocales...) dans pratiquement toutes les langues, puisque plus vous alimentez vos modèles statistiques en données, plus la qualité des modèles s'améliore !

Il précise d'ailleurs les deux principaux enjeux pour Google dans la traduction automatique :
  1. augmenter la qualité de sortie, grâce au binôme quantité de données / puissance de calcul, ce qui explique clairement pourquoi la qualité est meilleure pour les couples de langues plus représentées ;
  2. augmenter en conséquence le nombre de langues (et donc de couples de langues) et de fonctionnalités offertes (comme les recherches croisées : je saisis un terme en français pour une recherche sur le Web chinois, et en sortie j'obtiens une page avec les résultats chinois à gauche et en vis-à-vis leur traduction française à droite), etc.
Alors au bout du compte on finira par obtenir ce que j'expliquais dans Google et la traduction, à savoir la mémoire de l'humanité :
...En nous livrant à un bref exercice de prospective, on peut très facilement imaginer que ... Google pourra ... puiser pratiquement tous les termes du langage humain, dans toutes les langues, au fur et à mesure que sa notre mémoire de traduction universelle prendra forme.

Alimentée autant par les traducteurs humains qui utiliseront les outils de Google pour traduire, que par ses technos automatisées à grande échelle (...), voire par la mise en parallèle des œuvres littéraires qui appartiennent au patrimoine de l'humanité et sont déjà traduites dans de nombreuses langues.

Pour les profanes, mettre en parallèle un texte c'est prendre Les Misérables de Hugo ou votre livre préféré, le segmenter et mettre en parallèle les segments du texte original avec les segments correspondants traduits dans la ou les langues de votre choix (à noter qu'un segment ne correspond pas forcément à une phrase, découpée en plusieurs segments si elle est trop longue, par exemple). Vous faites ça avec français-anglais, et vous avez la mémoire français-anglais des Misérables. Ensuite vous faites de même avec anglais-italien, espagnol-allemand, russe-chinois, etc., et vous obtenez autant de mémoires que de langues dans lesquelles l'ouvrage a été traduit.

La pierre de Rosette est un parfait exemple de textes mis en parallèle. Et pour me limiter à n'en mentionner qu'un seul autre, pensez aux milliers de traductions de la Bible qui existent déjà...

Donc ajoutez-y tous les grands classiques mondiaux déjà numérisés, construisez les mémoires de traduction correspondantes dans les couples de langues dont vous disposez, et vous comprendrez aisément qu'on n'est pas loin de pouvoir mettre en parallèle pratiquement l'ensemble du langage humain, à toutes les époques.

Depuis l'aube de l'humanité, nul n'a jamais été en mesure de faire ça. Jusqu'à Google...
Qui n'aura donc plus besoin de chercher "Large-Scale Translation Memories" dans ... Google, en laissant le pluriel aux autres, puisque la société de Mountain View disposera enfin de la très singulière "Very Large-Scale Translation Memory", j'ai nommé The Universal Translation Memory, ou par chez nous LA mémoire de traduction universelle...

Non, vous ne rêvez pas, c'est pour bientôt...


Partager sur Facebook

, , , , , , , , ,

Europeana est en ligne

Europeana est en ligne (brève)

Annoncée il y a trois mois, la bibliothèque numérique pour l'Europe est ouverte aujourd'hui (site peu accessible pour l'heure, probablement victime de son succès). Voir ici pour davantage de détails.

Ce portail électronique devrait donner l'accès, dans un premier temps, à environ 2 millions de documents, avant de dépasser 6 millions (ou 10 millions ?) en 2010, « lorsque la mise en réseau des collections numérisées de l'ensemble de l'Union deviendra pleinement opérationnelle ».


Google Books n'a qu'à bien se tenir ! Alors Olivier, es-tu toujours d'avis qu'Europeana est la mal-nommée ou que la France fait preuve d'impérialisme culturel ? Ce qui est quand même le comble ! (Merci Claude, d'avoir signalé le lien en commentaire).


Partager sur Facebook

P.S. Vu les problèmes d'accès au site pour l'instant, il m'est impossible de voir de plus près les fonctions recherche et consultation (voire téléchargement) que le portail met à disposition, mais ce n'est que partie remise...

, , , ,