Pages

lundi 18 juin 2018

Glocalize @Paris2024

Titre du projet :                            Glocalize @Paris2024

ou comment créer une dynamique sociale planétaire autour de @Paris2024

*
L’histoire de ce projet, que j’ai dans les cartons depuis plus de 6 mois, conçu dans les moindres détails depuis le début, est qu’apparemment il n’intéresse personne. Donc voilà, c’est cadeau !

Introduction
Constat de départ
Un vrai dialogue se tient dans la langue du destinataire du message
Coordinateur du projet : Glocalyze
Conclusion

*

Introduction

Ce projet a germé dans ma tête dès septembre 2017, lorsque Paris a obtenu officiellement l’organisation des Jeux olympiques de 2024.

En vue de lui donner un maximum de visibilité et d’en faire un tremplin pour arriver au Comité d’Organisation des Jeux Olympiques et Paralympiques Paris 2024 (créé en janvier 2018), j’avais soumis à Station F la candidature de Glocalyze (dans mon idée, la structure chargée de coordonner le projet) avant le 1er octobre 2017, mais il n’a malheureusement pas été retenu…



« We did not feel your startup was a good fit for the Founders Program at this time… »

Il ne me restait donc qu’à tenter de contacter directement les personnes chargées d’organiser les jeux de 2024 - notamment sous l’aspect marketing - via Twitter, seule possibilité de les aborder sans filtre. Après plusieurs tentatives sans jamais obtenir la moindre réponse d’aucun d’entre eux, je me suis résolu à mettre ce projet en ligne, il finira peut-être un jour par inspirer quelqu’un… [Début]

* * *

Constat de départ

L’un des maîtres-mots de la communication du Comité d’organisation @Paris2024 est : PARTAGER !


Un verbe avec une connotation fortement positive, mais difficile à mettre en œuvre selon la logique traditionnelle, de type top-down, à la base des sites institutionnels des JO.

Quant à la vision et au concept affirmés, qui parlent d’organiser l’« Olympisme en action » « dans un esprit unique de célébration universelle », il ne serait pas inutile de rappeler que l’universalisme passe forcément par le plurilinguisme, sans lequel aucun dialogue interculturel n’est possible.

En bref, sans plurilinguisme, point d’universalisme !

D’où l’axe directeur qui sous-tend l’approche bottom-up du projet Glocalize @Paris2024, dont le but est d’impliquer directement les pays participants (via leurs comités nationaux) et, derrière, les populations…

Prenons l’exemple du site institutionnel des jeux olympiques de Pyeongchang, en février 2018, décliné en … 5 langues (KO, EN, FR, CN, JP), alors que 92 pays y étaient représentés (sur un nombre total de 206 comités nationaux olympiques…).

C’est encore pire pour les sites institutionnels des prochains jeux, Tokyo 2020 (seulement 3 langues : JP, EN, FR) et Beijing 2022 (idem : CN, EN, FR).

Pour @Paris2024, l’opportunité unique de rompre avec cette paupérisation linguistique mal assumée est donc manifeste : créer autant de sites que de pays participants ! Non pas trois sites, mais 100 et plus… Disruption, dites-vous ?

Il n’est plus un marketeur sérieux, plus une étude marketing fiable, pour oser affirmer qu’on peut toucher un public en profondeur en s’adressant à lui sans en parler la langue. Et plus encore : la langue locale !

Car chaque langue parlée dans plusieurs pays se décline dans sa version régionale : l’espagnol parlé en Espagne n’est pas identique à celui parlé en Amérique du Sud, tout comme les hispanophones du Mexique n’ont rien à voir avec ceux du Pérou et ainsi de suite. Il en va de même pour le français (France, Belgique, Canada francophone, etc.), pour le portugais (Portugal, Brésil, etc.), pour l’anglais, l’arabe et pour toutes les langues parlées sous différents cieux... [Début]

* * *

Un vrai dialogue se tient dans la langue du destinataire du message

En donnant pour acquis que vouloir tout exprimer en quelques langues majeures, cela reste très insuffisant pour générer une dynamique sociale sur Internet telle que nous les voyons se développer langue par langue, la solution est une évidence : créer un univers de mini-sites Web satellites, tous conçus sur un même modèle aux couleurs de @Paris2024, mais déclinés par langue !

Puisque c’est en échangeant avec les gens dans leur idiome que l’on jette les bases d’une complicité et d’une capacité de dialoguer sans commune mesure avec toute communication "aseptisée", dans une langue qu’ils comprennent mais qui n’est pas la leur. La nuance est de taille et fait toute la différence entre les internautes passifs (qui saisissent le sens mais ne participent pas à la conversation) et actifs (qui s’impliquent directement dans le débat et font vivre le dialogue).

Chaque mini-site s’accompagnera d’un blog et de relais sur les médias sociaux : a minima une page Facebook, un profil Instagram, un compte Twitter...

Le tout sous la responsabilité et l’accompagnement d’un ou de plusieurs animateurs par pôle linguistique local.

En clair, le « message universel » de @Paris2024 devrait être :

Votre nation participe aux JO ?
Nous avons décidé de vous impliquer en créant un site dans VOTRE langue !

Un message fort et distinctif, loin de couler de source pour les locuteurs partout dans le monde, qui sont une majorité trop fragmentée, et donc au final une minorité dont nul ne parle jamais.

C’est ainsi qu’UN seul message centralisé, chaque message de départ, est véhiculé à l’arrivée par 100 ou par autant de langues créées, et qu’il vit ensuite de sa propre vie sur les médias sociaux… [Début]

* * *

Coordinateur du projet : Glocalyze

De concert avec les équipes marketing de @Paris2024, responsables de définir les messages à communiquer, Glocalyze (créé par moi-même et par l’ami Iain Whyte, qui comptons à nous deux plus de soixante années d’expérience professionnelle dans les métiers des langues…) se chargera en amont d’identifier et de mettre en place le réseau d’animateurs, et en aval d’en assurer le suivi, car ce sont eux les véritables vecteurs et moteurs du dialogue social sur Internet et dans les médias.

Naturellement, développer ce point n’aurait de sens qu’en cas d’acceptation du projet par les instances concernées, donc dans l’éventualité où Glocalize @Paris2024 verrait le jour, je préfère en laisser les détails en suspens. 😊 [Début]

* * *

Conclusion

Puisqu’il n’est pas interdit de rêver, songeons un instant à la portée exceptionnelle (résolument universelle, pour le coup) d’un message olympique multiplié par 100 ou par 200 (il y a 206 Comités Nationaux Olympiques, voir ici et en P.S.), qui plus est relayé sur une diversité de plateformes « sociales »…

On pourrait aussi bien imaginer qu’un tel projet ne se limite pas à Paris et aux JO de 2024, mais qu’il englobe à terme tous les futurs JO – voire d’autres événements majeurs – sur tous les continents.

Pour adresser - toujours « plus vite, plus haut, plus fort » - un message à destination de tous les futurs participants potentiels, femmes et hommes de toutes nations… [Début]

Warluis, le 18 juin 2018                                                                               Jean-Marie Le Ray



P.S. Liste des 206 Comités Nationaux Olympiques actuellement recensés :


Il y a onze ans déjà, j’écrivais des enjeux et de la nature d’une communication multilingue en me basant sur deux rapports de la Commission européenne, publiés respectivement en novembre 2005 (Un nouveau cadre stratégique pour le multilinguisme) et en décembre 2006 (rapport ELAN - Effects on the European Economy of Shortages of Foreign Language Skills in Enterprise), qui mettaient en évidence, dans le cadre d’une société et d’une économie multilingues, les incidences négatives du manque de compétences linguistiques des entreprises, et cela même avant l’arrivée des réseaux sociaux tels que nous les connaissons aujourd’hui.

En 2018, il est inconcevable que l’institution olympique, qui se targue de professer l’universalisme, ne communique pas dans toutes les langues. L’important c'est de participer, certes, mais de participer dans sa langue...

vendredi 18 mai 2018

Federico Pucci: Pioniere dimenticato della traduzione automatica

Federico Pucci
Pioniere dimenticato della traduzione automatica

(English version)            (Slideshare)              (Version française)

E’ il titolo del libro che la nipote di Federico Pucci ed io abbiamo deciso di scrivere insieme, e di cui vi proponiamo qua la prefazione:

Cercando su Google traduction automatique, il motore restituisce oltre 2,5 milioni di risultati, praticamente tanto quanto per traduzione automatica, e quasi 11,5 milioni per machine translation (MT), e così via in tutte le lingue. Dei numeri inevitabilmente destinati ad aumentare negli anni a venire.

Mai come oggi si è parlato così tanto di traduzione automatica, e l'arrivo della traduzione automatica neurale, che sfrutta l’intelligenza artificiale, promette di rivoluzionare nuovamente il campo. Questa sarà la seconda evoluzione maggiore in meno di 20 anni, dopo la prima ondata rivoluzionaria, firmata Google negli anni 2000.

Uno dei ricercatori più autorevoli nella storia della traduzione automatica è senz'altro John Hutchins, il cui articolo « Machine Translation: History », pubblicato nel 2006 in Encyclopedia of Language & Linguistics, Second Edition (Elsevier), inizia con il capitolo « Precursors and Pioneers, 1933–1954; ecco le prime righe(1):
Although we might trace the origins of ideas related to machine translation (MT) to 17th-century speculations about universal languages and mechanical dictionaries, it was not until the 20th century that the first practical suggestions could be made, in 1933 with two patents issued in France and Russia to Georges Artsrouni and Petr Trojanskij, respectively. Artsrouni’s patent was for a general-purpose machine that could also function as a mechanical multilingual dictionary. Trojanskij’s patent, also basically for a mechanical dictionary, went further with detailed proposals for coding and interpreting grammatical functions using ‘universal’ (Esperanto-based) symbols in a multilingual translation device. 
Hutchins asserisce quindi chiaramente che i precursori della traduzione automatica sono Georges Artsrouni e Petr Trojanskij, e l'anno di riferimento è il 1933. Un'asserzione unanimamente riconosciuta e, per quanto ne so, mai messa in dubbio da nessuno.

Tuttavia, in precedenti documenti redatti dallo stesso autore, egli menziona per due volte tale Federico Pucci, di Salerno. La prima volta nel 1997, in un testo intitolato « First Steps In Mechanical Translation » (2):
In August 1949, the New York Times reported from Salerno that an Italian named Federico Pucci, had invented a machine to translate, saying that it would be exhibited at a Paris Fair; but no more was to be heard of it. 
poi aggiornato nel 2005(3):
On 26 August 1949, the New York Times reported (page 9) from Salerno:  Federico Pucci announced today that he had invented a machine that could translate copy from any language into any other language. He said that the machine was electrically operated, but refused to disclose details. He said that he would enter it in the Paris International Fair of Inventions next month.   
It is uncertain whether Pucci had any knowledge of Huskey’s proposals, and it seems most unlikely he knew about Weaver's memorandum or the British experiments. In any event, there is no trace of any demonstration at the Paris fair; and nothing more is known about Pucci 
Ossia una decina di righe in tutto, ma che danno l'avvio ad una scoperta straordinaria, oltre che una formidabile avventura umana: quelle di Federico Pucci, di cui nessuno aveva mai saputo altro se non quelle poche parole, finché una irrefrenabile curiosità non mi spinse a saperne di più…

Eppure il merito di aver pubblicato il primo testo al mondo sul traduttore "meccanico" dei tempi moderni gli deve essere attribuito, già nel 1931 (anno IX dell'era fascista!):



E per quanto ne sappiamo, scriverà 10 libri in 30 anni sulla sua idea d'invenzione, totalmente sconosciuti ancora oggi.

Nello scrivere questa prefazione, poco più di un anno dopo aver pubblicato sul mio blog il primo post su questa incredibile storia, intitolato « Traduzione automatica: SCOOP sul traduttore dinamo-meccanico! » (in francese), mi rendo conto che la strada percorsa, già ricca e intensa, è di molto inferiore a quella che rimane da percorrere prima di vedere universalmente riconosciuto il ruolo di Federico Pucci come storico precursore della traduzione automatica, e che un'Università, oppure uno dei maggiori protagonisti della traduzione automatica nel mondo, non raccolga il suo lavoro e le sue intuizioni per finalmente realizzare un prototipo funzionale della sua « macchina per tradurre »…

Salerno, Pasqua 2018

Bibliografia

(1) Hutchins J (2006), Machine Translation: History. In: Keith Brown, (Editor-in-Chief) Encyclopedia of Language & Linguistics, Second Edition, volume 7, pp. 375-383. Oxford: Elsevier.
http://www.hutchinsweb.me.uk/EncLangLing-2006.pdf
(2) FIRST STEPS IN MECHANICAL TRANSLATION
John Hutchins
(University of East Anglia, Norwich, UK)
(3) [Corrected version (2005) of paper in: Machine Translation, vol.12 no.3, 1997, p.195-252]
From first conception to first demonstration: the nascent years of machine translation, 1947-1954
A chronology
John Hutchins

* * *

Precedenti post :

Su Adscriptor:

4. Il traduttore [elettro]-meccanico secondo Federico Pucci (17/06/2017)
3. Exclusivité : les inventions de Federico Pucci dans la traduction automatique (24/03/2017)
2. Histoire actualisée de la traduction automatique (17/03/2017)
1. Traduction automatique : une découverte extraordinaire (16/03/2017)

Su Translation 2.0:

7. Federico Pucci, linguiste émérite, inventeur et précurseur de la traduction automatique (27/07/2017)
6. Le traducteur [électro]-mécanique selon Federico Pucci (16/06/2017)
5. Exclusivité : Federico Pucci, inventeur du premier "traducteur mécanique" des temps modernes (02/04/2017)
4. Premier texte au monde sur la traduction automatique (15/03/2017)
3. Federico Pucci, pioniere della traduzione automatica (13/03/2017)
2. Federico Pucci : LE précurseur de la traduction automatique (13/03/2017)
1. Traduction automatique : SCOOP sur le traducteur dynamo-mécanique ! (12/03/2017)

* * * 


P.S. Federico Pucci, uomo d'ingegno e di cultura, detto da sua figlia, è nato a Napoli il 23 marzo 1896, e deceduto a Salerno il 6 marzo 1973, pochi giorni prima di compiere i suoi 77 anni.


E’ il pronipote, per via paterna, di Francesco Benzo Duca della Verdura, dapprima Intendente della Basilicata, poi Pretore e Intendente di Palermo tra il 1849 e il 1858, gentiluomo di camera del re Ferdinando II delle Due Sicilie, ed inoltre poliglotta ed interprete del re.

mardi 17 avril 2018

Nos traces sur Internet = notre empreinte digitale 2.0

Depuis l'avènement du Web, l'expression "empreinte digitale" revêt un nouveau sens, lié aux traces que nous laissons sur Internet, à notre insu de notre plein gré.


Or dans un parallélisme étonnant, l'empreinte que presque tous nous laissons désormais sur le Web, permet de nous identifier de façon aussi quasi-unique que le dactylogramme laissé par notre index après avoir été au contact d'un tampon encreur.

Essayons de voir comment.

* * *

Dans l'un de mes billets préférés (sur le millier que j'ai globalement commis depuis 2005...), écrit il y a 10 ans et intitulé Bloc contre bloc, l'internaute au centre..., puis repris en 2016 dans « Des événements qui déclenchent la collecte de données "privées" aux "moments de vie" des internautes... », je décrivais ainsi les « Data transmission events » :
... je ne parlerai que d'événements pour abréger, mais à chaque fois il faudra bien comprendre qu'il s'agit d'événements déclenchant la collecte de données "privées" sur les usages de l'internaute. Citons, à titre d'exemple, les données collectées :
  • lors des recherches de l'internaute ;
  • lors de ses achats ;
  • lorsqu'il clique sur une pub ;
  • lorsqu'il s'enregistre sur un service ;
  • grâce aux cookies, etc.
Tout cela permettant à qui les possède en bout de chaîne d'obtenir des informations précises sur nos habitudes, nos intérêts, et ainsi de suite. Le graal des publicitaires et des marketers de tout poil, en quelque sorte ! 
On pourra toujours s'interroger pour savoir si ces données sont collectées à notre insu ou non, bien que je me demande franchement quel internaute naviguant régulièrement sur Internet ne serait pas encore au courant !?
Quant au nombre de ces événements, obtenu en divisant les milliards d’événements de données collectées par les différents acteurs sur leurs sites propriétaires et sur les réseaux étendus de régie publicitaire par le total de leurs visiteurs uniques (mesures menées aux États-Unis en décembre 2007 sur le trafic imputable aux quinze plus gros acteurs américains de l'Internet, par le New York Times et comScore), il était déjà assez impressionnant pour l'époque :


  • sur un seul mois, Yahoo! engrangeait 2 520 données uniques par visiteur et se classait en tête loin devant ses concurrents ;
  • Google, qui venait juste d'intégrer Doubleclick, se classait en deuxième position avec 1645 données ;
  • suivaient ensuite Microsoft, Time Warner, AOL, Fox Interactive Media et MySpace (!).



* * *

Et devant Facebook ! Donc c'était il y a 10 ans, Facebook ne comptait "que" 75 millions d'utilisateurs dans le monde (quand bien même ses statistiques de progression étaient déjà impressionnantes, avec +300% de croissance sur un an...), vs. quelque deux milliards d'utilisateurs actifs mensuels aujourd'hui (!) (barre symbolique franchie au deuxième trimestre 2017), etc. Et beaucoup s'interrogeaient, à l'époque, sur quel aurait pu être le modèle économique durable de Facebook pour en assurer la pérennité. D'aucuns se risquaient même à en prédire la déconfiture totale, et rapide (Frédéric Cavazza, par exemple).

Autant dire que, à l'aune d'Internet, nous en étions pratiquement encore à la préhistoire ! Et nous avons vu depuis (histoire très récente) ce que la possession et l'analyse de toutes ces données personnelles peut provoquer lorsqu'elles sont aux mains de qui sait s'en servir, avec toutes les implications qui peuvent s'en suivre, d'ailleurs plus souvent en mal qu'en bien...

Dans un formidable article intitulé "comment une pizza commandée de nuit coûte moins cher en dollars qu'en données" (How Pizza Night Can Cost More in Data Than Dollars), les journalistes du Wall Street Journal démontrent qu'une soirée passée chez soi entre amis à commander sur Internet a des implications inattendues en termes de données collectées, dans un article d'un niveau de détail hallucinant, à lire absolument !

Et qui illustre fort bien quelles peuvent être les conséquences, à notre insu, de gestes que nous commettons souvent librement, de notre plein gré.

Impossible ici de reprendre tout l'article (allez le lire, j'insiste), je ne reprendrai que la partie du selfie posté sur Facebook, où s'ajoutent aux données communiquées de notre plein gré (photo téléchargée, texte d'accompagnement et reconnaissance faciale, lorsque vous taguez votre nom ou celui/ceux de votre/vos ami.e.s sur la photo), celles collectées à notre insu par la plateforme :


Soit une vingtaine de données en tout dans ce seul cas... Maintenant, imaginons combien de fois par jour nous accomplissons de notre plein gré de tels gestes, innocents au demeurant, multipliés par le nombre de plateformes, qui collectent à notre insu d'énormes quantités de métadonnées (outre celles que nous communiquons de nous-mêmes), associées à notre implication dans la grande conversation mondiale jamais interrompue sur Internet...

Et imaginons ensuite que toutes ces données soient agrégées, centralisées, recoupées, analysées et, surtout, corrélées à quelqu'un et à son réseau, etc., alors on comprend vite que c'en est définitivement terminé du "secret" de la vie privée. Déjà que ni l'anonymisation ni la pseudonymisation des données ne sont des garanties suffisantes pour empêcher l'identification d'un individu quelconque, il suffit de se rappeler l'affaire AOL :
En 2006, une base de données d'America On Line contenant vingt millions de mots-clés figurant dans les recherches effectuées par plus de 650 000 utilisateurs au cours d’une période de 3 mois a été diffusée publiquement, sans autre mesure destinée à préserver la vie privée que le remplacement de l’identifiant d’utilisateur AOL par un attribut numérique. À la suite de quoi, l’identité et la localisation de certains utilisateurs ont été rendues publiques. Les requêtes transmises à un moteur de recherches, surtout si elles peuvent être couplées avec d’autres attributs, comme les adresses IP ou d’autres paramètres de configuration, ont un potentiel d’identification très élevé.

* * *

Je ne souhaite pas entrer ici dans la discussion fort intéressante entre Antonio Casilli sur la qualification des traces que nous laissons partout à notre insu de notre plein gré (ou de notre plein gré à notre insu, à vous de choisir l'ordre) en "digital labor", et sur les fortes tensions conceptuelles qui en découlent, mais je me limiterais à souligner ce passage de Jean-Michel Salaün qui illustre fort bien ma pensée sur la "plateformisation" (c'est moi qui mets en évidence) :
Les trois plateformes de l’industrie de l’information, Apple, Google et Facebook ont été les premières réussites spectaculaires, définissant le modèle et lui trouvant un débouché commercial. (...) Chacune se rémunère différemment. Apple vend très cher les terminaux qui donnent accès aux API proposées sur sa plateforme. Google vend des mots-clés pour accrocher des annonces commerciales aux contenus que recherchent les internautes. Facebook vend des espaces publicitaires sur les pages des internautes dont il a pu caractériser les comportements grâce à leurs interrelations...

Second point très important : les algorithmes fonctionnent par un calcul sur les très grands nombres. Il a même été mis au point pour permettre ces calculs une nouvelle forme de gestion des données : les bases de données non-relationnelles ou NoSQL. Ainsi nos données personnelles recueillies ne sont qu’une petite goutte d’eau dans un océan de données. Si nous pouvions parler de responsabilité individuelle sur l’utilisation de nos données, ce qui est déjà très contestable, celle-ci serait de toutes façons tellement diluée qu’elle serait négligeable, sauf évidemment pour ceux qui retournent la puissance de calcul des plateformes à leur profit...  
Les plateformes nous observent afin de fluidifier les relations entre nous et ceux qui nous proposent des services. Mais cette observation génère un nombre considérables de données sur nos comportements. Cette accumulation a fait émerger une inquiétude quant à leur capacité à changer de registre, c’est à dire à dépasser leur fonction d’intermédiaire pour jouer un rôle politique. L’inquiétude est accentuée par les compétences en design de l’expérience utilisateur acquises par les plateformes parfois assimilées à de la manipulation. C’est sans doute la première limite sérieuse à un développement jusqu’ici spectaculaire par son ampleur et sa rapidité.
Donc voilà, work in progress... Il y a dix ans, les plateformes ne faisaient pas peur, ou pour le moins pas autant qu'aujourd'hui. Ce n'est plus le cas, donc, et souvent à juste titre. Ce qui se passe en Chine, notamment - mais pas que - avec le déploiement massif de la reconnaissance faciale, est en train de transposer la dimension IRL dans la plateforme, où l'être humain n'est plus désormais simplement un "sujet", mais aussi et surtout un "objet" : classable, analysable, empilable à l'infini...

Pour l'heure, je n'ai malheureusement aucune conclusion optimiste !



mardi 10 avril 2018

Exclusive: Federico Pucci. The overlooked pioneer of machine translation

Federico Pucci
The overlooked pioneer of machine translation

(Version française)            (Slideshare)              (Versione italiana)

This is the title of the book that Federico Pucci’s granddaughter and I have decided to write. Below is its preface:

If you do a Google search for traduction automatique, more than 2.5 million results come up. A similar number are retrieved for traduzione automatica, while a search for machine translation, gets 11.5 million results. And so on for all other languages. Figures that are bound to grow in years to come.

There has never been more interest in machine translation (MT) than there is now. With neural machine translation, making use of artificial intelligence, coming into the picture, this field is heading towards another revolution. The second big (r)evolution in less than 20 years, after the first wave brought in by Google in the « Noughties ».

One of the biggest authorities in the history of machine translation is John Hutchins, whose article « Machine Translation: History », published in 2006 in the Encyclopedia of Language & Linguistics, Second Edition (Elsevier), begins with the chapter « Precursors and Pioneers, 1933–1954. It starts like this(1):
Although we might trace the origins of ideas related to machine translation (MT) to 17th-century speculations about universal languages and mechanical dictionaries, it was not until the 20th century that the first practical suggestions could be made, in 1933 with two patents issued in France and Russia to Georges Artsrouni and Petr Trojanskij, respectively. Artsrouni’s patent was for a general-purpose machine that could also function as a mechanical multilingual dictionary. Trojanskij’s patent, also basically for a mechanical dictionary, went further with detailed proposals for coding and interpreting grammatical functions using ‘universal’ (Esperanto-based) symbols in a multilingual translation device. 
This clearly posits that the precursors or pioneers of MT were Georges Artsrouni and Petr Trojanskij, with the year 1933 firmly fixed. This view is unanimously shared, and as far as I am aware has never been challenged by anyone.

Earlier documents, however, also penned by John Hutchins, mention on two occasions a certain Federico Pucci, from Salerno. The first time in 1997, in a document entitled « First Steps In Mechanical Translation » (2):
In August 1949, the New York Times reported from Salerno that an Italian named Federico Pucci, had invented a machine to translate, saying that it would be exhibited at a Paris Fair; but no more was to be heard of it. 
Then in a 2005 update(3):
On 26 August 1949, the New York Times reported (page 9) from Salerno:  Federico Pucci announced today that he had invented a machine that could translate copy from any language into any other language. He said that the machine was electrically operated, but refused to disclose details. He said that he would enter it in the Paris International Fair of Inventions next month.   
It is uncertain whether Pucci had any knowledge of Huskey’s proposals, and it seems most unlikely he knew about Weaver's memorandum or the British experiments. In any event, there is no trace of any demonstration at the Paris fair; and nothing more is known about Pucci 
Just a dozen or so lines in all, but the starting point that will lead to an amazing discovery, not to mention a great human adventure. The story of Federico Pucci, about whom nothing at all was known save for these few words. I had an irresistible urge to find out more…

He has the merit and the honour of having published the world’s first text on the “mechanical translator” written in modern times, back in 1931 (year IX of the fascist era!):



As far as we know, he wrote a total of 10 books in 30 years (French post) explaining the ideas behind his invention, totally unknown today.

Writing this preface, a little over a year after having written my first blog post on this wonderful story, entitled « Machine translation: SCOOP on the dynamo-mechanical translator! », I realise that the intense road already travelled is shorter than that still to be traversed, before Federico Pucci’s role as a pioneer in the history of machine translation is universally recognised, and before a University, or one of the world’s biggest MT players, decides to take up his studies and ideas and finally build a working prototype of his translating machine…

Salerno, Easter 2018

Bibliography

(1) Hutchins J (2006), Machine Translation: History. In: Keith Brown, (Editor-in-Chief) Encyclopedia of Language & Linguistics, Second Edition, volume 7, pp. 375-383. Oxford: Elsevier.
http://www.hutchinsweb.me.uk/EncLangLing-2006.pdf
(2) FIRST STEPS IN MECHANICAL TRANSLATION
John Hutchins
(University of East Anglia, Norwich, UK)
(3) [Corrected version (2005) of paper in: Machine Translation, vol.12 no.3, 1997, p.195-252]
From first conception to first demonstration: the nascent years of machine translation, 1947-1954
A chronology
John Hutchins

* * *

Previous posts :

Adscriptor:

4. Il traduttore [elettro]-meccanico secondo Federico Pucci (17/06/2017)
3. Exclusivité : les inventions de Federico Pucci dans la traduction automatique (24/03/2017)
2. Histoire actualisée de la traduction automatique (17/03/2017)
1. Traduction automatique : une découverte extraordinaire (16/03/2017)

Translation 2.0:

7. Federico Pucci, linguiste émérite, inventeur et précurseur de la traduction automatique (27/07/2017)
6. Le traducteur [électro]-mécanique selon Federico Pucci (16/06/2017)
5. Exclusivité : Federico Pucci, inventeur du premier "traducteur mécanique" des temps modernes (02/04/2017)
4. Premier texte au monde sur la traduction automatique (15/03/2017)
3. Federico Pucci, pioniere della traduzione automatica (13/03/2017)
2. Federico Pucci : LE précurseur de la traduction automatique (13/03/2017)
1. Traduction automatique : SCOOP sur le traducteur dynamo-mécanique ! (12/03/2017)

* * * 


P.S. Federico Pucci, a clever and knowledgeable man according to his daughter, was born in Naples on 23 March 1896. He died in Salerno on 6 March 1973 just before reaching the age of 77.


He is the great grandson, through his father, of Francesco Benzo, Duke of Verdura, formerly intendant of Basilicata, then praetor and intendant of Palermo from 1849 to 1858, nobleman of the court of King Ferdinand II of the Two Sicilies, and also polyglot and interpreter for the King.

dimanche 1 avril 2018

Federico Pucci, précurseur oublié de la traduction automatique

Federico Pucci
Précurseur oublié de la traduction automatique

(English version)            (Slideshare)              (Versione italiana)

Tel est le titre du livre que la petite-fille de Federico Pucci et moi-même avons décidé d'écrire, et dont nous vous proposons ici la préface :

En cherchant le binôme traduction automatique, Google renvoie plus de 2,5 millions de résultats, pratiquement autant pour traduzione automatica, presque 11,5 millions pour machine translation (MT), et ainsi de suite dans toutes les langues. Des chiffres inéluctablement destinés à augmenter dans les années à venir.

Jamais il n’a été autant question de traduction automatique (TA) que ces jours-ci, et l’arrivée de la TA neuronale faisant levier sur l’intelligence artificielle promet de révolutionner encore le domaine. Soit la deuxième (r)évolution majeure en moins de 20 ans, après la première vague révolutionnaire, signée Google dans les années 2000. 

S’il est un chercheur qui fait autorité dans l’histoire de la traduction automatique, c’est bien John Hutchins, dont l’article « Machine Translation: History », publié en 2006 dans l’Encyclopedia of Language & Linguistics, Second Edition, Éd. Elsevier, commence par le chapitre « Precursors and Pioneers, 1933–1954 » ; en voici le début (1) :
Although we might trace the origins of ideas related to machine translation (MT) to 17th-century speculations about universal languages and mechanical dictionaries, it was not until the 20th century that the first practical suggestions could be made, in 1933 with two patents issued in France and Russia to Georges Artsrouni and Petr Trojanskij, respectively. Artsrouni’s patent was for a general-purpose machine that could also function as a mechanical multilingual dictionary. Trojanskij’s patent, also basically for a mechanical dictionary, went further with detailed proposals for coding and interpreting grammatical functions using ‘universal’ (Esperanto-based) symbols in a multilingual translation device. 
Il y est donc clairement établi que les précurseurs/pionniers de la TA sont Georges Artsrouni et Petr Trojanskij, et l’année de référence est 1933. Une assertion unanimement reconnue et, à ma connaissance, jamais remise en question par qui que ce soit.

Pourtant, dans des documents antérieurs, rédigés par ce même John Hutchins, celui-ci mentionne par deux fois un certain Federico Pucci, de Salerne. La première fois en 1997, dans un document intitulé « First Steps In Mechanical Translation » (2) :
In August 1949, the New York Times reported from Salerno that an Italian named Federico Pucci, had invented a machine to translate, saying that it would be exhibited at a Paris Fair; but no more was to be heard of it. 
Puis, dans une mise à jour datée de 2005 (3):
On 26 August 1949, the New York Times reported (page 9) from Salerno:  Federico Pucci announced today that he had invented a machine that could translate copy from any language into any other language. He said that the machine was electrically operated, but refused to disclose details. He said that he would enter it in the Paris International Fair of Inventions next month.   
It is uncertain whether Pucci had any knowledge of Huskey’s proposals, and it seems most unlikely he knew about Weaver's memorandum or the British experiments. In any event, there is no trace of any demonstration at the Paris fair; and nothing more is known about Pucci 
Soit une dizaine de lignes en tout, mais qui donnent le départ d’une extraordinaire découverte, doublée d’une formidable aventure humaine : celles de Federico Puccidont nul n’avait jamais connu rien d’autre que ces quelques mots, jusqu’à ce qu’une irréfrénable curiosité ne me pousse à en savoir davantage…

Or c'est quand même à lui que revient le mérite d'avoir publié le premier texte au monde sur le traducteur "mécanique" des temps modernes, dès 1931 (an IX de l'ère fasciste !) :



À  notre connaissance, il écrira d'ailleurs 10 livres en 30 ans sur son idée d'invention, totalement inconnus aujourd'hui.

En rédigeant cette préface, un peu plus d’un an après avoir écrit mon premier billet de blog sur cette incroyable histoire, intitulé « Traduction automatique : SCOOP sur le traducteur dynamo-mécanique ! », je me rends pourtant compte que le chemin parcouru, déjà riche et intense, est inférieur à celui qui reste à parcourir, avant que le rôle de précurseur de Federico Pucci dans l’histoire de la traduction automatique ne soit universellement reconnu, et qu’une Université, ou encore l’un des acteurs majeurs de la TA dans le monde, ne s’empare de ses travaux et intuitions pour réaliser finalement un prototype fonctionnel de sa machine à traduire…

Salerne, Pâques 2018

Bibliographie

(1) Hutchins J (2006), Machine Translation: History. In: Keith Brown, (Editor-in-Chief) Encyclopedia of Language & Linguistics, Second Edition, volume 7, pp. 375-383. Oxford: Elsevier.
http://www.hutchinsweb.me.uk/EncLangLing-2006.pdf
(2) FIRST STEPS IN MECHANICAL TRANSLATION
John Hutchins
(University of East Anglia, Norwich, UK)
(3) [Corrected version (2005) of paper in: Machine Translation, vol.12 no.3, 1997, p.195-252]
From first conception to first demonstration: the nascent years of machine translation, 1947-1954
A chronology
John Hutchins

* * *

Billets précédents :

Sur Adscriptor :

4. Il traduttore [elettro]-meccanico secondo Federico Pucci (17/06/2017)
3. Exclusivité : les inventions de Federico Pucci dans la traduction automatique (24/03/2017)
2. Histoire actualisée de la traduction automatique (17/03/2017)
1. Traduction automatique : une découverte extraordinaire (16/03/2017)

Sur Translation 2.0 :

7. Federico Pucci, linguiste émérite, inventeur et précurseur de la traduction automatique (27/07/2017)
6. Le traducteur [électro]-mécanique selon Federico Pucci (16/06/2017)
5. Exclusivité : Federico Pucci, inventeur du premier "traducteur mécanique" des temps modernes (02/04/2017)
4. Premier texte au monde sur la traduction automatique (15/03/2017)
3. Federico Pucci, pioniere della traduzione automatica (13/03/2017)
2. Federico Pucci : LE précurseur de la traduction automatique (13/03/2017)
1. Traduction automatique : SCOOP sur le traducteur dynamo-mécanique ! (12/03/2017)

* * *

P.S. Federico Pucci, homme d'ingéniosité et de culture, dans les mots de sa fille, est né à Naples le 23 mars 1896. Il est décédé à Salerne le 6 mars 1973, à la veille de ses 77 ans.


Il est l'arrière-petit-fils, par son père, de Francesco Benzo Duca della Verdura, d'abord intendant de la Basilicate, puis préteur et intendant de Palerme entre 1849 et 1858, gentilhomme de la chambre du roi Ferdinand II des Deux-Siciles, et accessoirement polyglotte et interprète du roi.

vendredi 9 mars 2018

Google Crosses a New Frontier in AI with Machine Translation

Special guest post from Rachel Wheeler at Morningside Translations

imageDesc for cat Artificial Intelligence Concept with Virtual Brain page Technology

Artificial Intelligence is nothing new, but the 21st century has seen some of the most significant advances in the technology. In the past, AI systems were very simple. There were only able to perform tasks that they were programmed to do, and only in the ways in which they had been programmed to do them.

With recent developments in artificial neural networks and deep learning, AI systems are now capable of performing tasks that are more complex. They can even learn how to perform tasks without having to be specifically programmed to do them. Recently, Google has made some significant breakthroughs through applying deep learning to machine translation.


Why Deep Learning is Important

Deep learning is a type of machine learning that allows a computer to process information in a way that is much more similar to that of a human. To achieve this, programmers use artificial neural networks designed to work similarly to our brains.

The human brain has billions of neurons that form connections to create neural pathways. As a person learns how to perform a task, a neural pathway might become stronger or weaker based on experience and the quality of the result provided by the pathway. In an artificial neural network, the system will have artificial neurons that are arranged in layers. As the system is exposed to information, it will form connections within the artificial neural network. These connections can become stronger or weaker based on the quality of the result as the system learns from experience.

With artificial neural networks and deep learning, a machine can ‘learn through doing’. This is different from older systems, which could only do what they were told. To make any change or improvement, a human programmer had to develop new commands and update the code. This newer technology means that it does not require this level of human intervention for the machine improve at its job.


Narrow AI Translation Systems

Machine translation systems have been around for many decades. The older systems operate on what is called narrow AI. With narrow AI, a system can perform a specific task based on pre-programmed rules. In the case of machine translations, the rules would tell the system how to break a sentence up into fragments and translate those fragments to a different language. It would then apply a set of post-processing rules to construct a meaningful sentence from the translated fragments.

Unfortunately, this often results in mismatched, inorganic translations. Narrow AI is not capable of translating changes in cultural nuances or idioms. While narrow AI has certainly made doing large amounts of translations easier, it is still necessary to employ content translation services which can catch any missed detail.


Google’s Major Breakthrough with Deep Learning

Google Translate used to operate on a variety of narrow AI systems. Then, in 2016, the tech giant announced that they were switching to a single multilingual system that uses an artificial neural network. This is what we now know as Google Neural Machine Translation (GNMT). The system was trained using millions of sample translations, and it continuously learns and improves from experience.

The researchers at Google expected the GNMT to get better at its job; that was part of the plan. However, they were surprised to find out that the system could use its existing knowledge to learn how to perform translations for which it has yet to be trained.

As an experiment, the researchers wanted to see if it could use its understanding of Korean to English and Japanese to English translations to teach itself how to perform Japanese to Korean translations.

The GNMT was able to successfully complete this task by creating an artificial language that could be used between the three source languages. The system would translate the source language into the artificial language that it created, and then translate the artificial language into the target language.

This is what researchers have termed zero-shot translation – the ability to translate between a language pair for which it has not been trained. Instead, the system transferred what it had learned about the two original language pairs and used that knowledge to create a system for performing translations in the new pair. Although the system is not yet perfect, this new technology has the potential to completely revolutionize the translation industry.