mardi 11 novembre 2025

Jordan Bardella, trop "poli" pour être honnête

Je l’avais trouvé trop lisse, trop consensuel pour en faire l’un de mes personnages. C’était un galet de rivière, Bardella, il avait le côté poli des ambitieux. Sa part d’ombre, il l’avait laissée à la maison. Il était le contraire de la spontanéité, le maître mot chez lui, c’était le contrôle.

                                                                              Anthony Micallef, cité par Paul-Stéphane Fort                                                                                 dans Le Grand remplaçant

*

Moins d'un an sépare la publication de Ce que je cherche (9 novembre 2024) de Ce que veulent les Français (29 octobre 2025). 

L'histoire se répète, tout en accélérant...

Déjà, en 2006, Marine Le Pen publie À contre-flots, puis, en 2012, Pour que vive la France : 6 ans contre 11 mois entre leurs livres respectifs, on sent bien l'impérieuse nécessité de devoir faire vite ; plus que jamais, le timing est stratégique.

Toutefois, la démarche est identique : la fille, qui doit se démarquer du père, histoire de reverdir le parti, l'humaniser, le normaliser, la fameuse opération "dédiabolisation" du FN, commence par publier en 2006 son livre-persona. Autrement dit, l'ouvrage censé installer l’identité publique autonome et neuve de Marine Le Pen, avant de passer à la phase suivante, avec son livre-programme, en 2012 : Pour que vive la France.

Juste pour être précis, il faudra attendre six autres années pour le changement de nom du parti, du FN au RN. Proposé le 11 mars 2018 par Marine Le Pen lors du congrès de Lille, le changement est adopté par consultation le 1ᵉʳ juin 2018 à la faveur de plus de 80 % des adhérents : en trois mois c'est plié, le « Front National » devient officiellement « Rassemblement National ». La transition est en marche (comme dirait l'autre...).

Avec Bardella, c'est du pareil au même, mais on va garder le RN, en passant du « Rassemblement National » au « Réenchantement National », où France rime avec espérance, fierté avec identité, etc. : tout le monde il est beau (surtout Jordy), tout le monde il est gentil (surtout Jordy), et à l'écoute, et responsable, et conscient des problèmes du pays, et ceci, et cela, ah ! la France !

Du reste, depuis toujours (sans vouloir remonter trop loin dans le temps), tous les candidats présidentiels se livrent (c'est le cas de dire) à cet exercice : Nicolas Sarkozy, avec Ensemble (2007), Hollande avec Changer de destin (2012, trois semaines après le livre de Le Pen et juste deux mois avant le premier tour de scrutin), Macron avec Révolution (2016, sous-titre : C'est notre combat pour la France). Livres-persona ou livres-programme, appelez-les comme vous préférez, l'exercice n'est pas nouveau et, en ce sens, Bardella s'inscrit dans la plus banale des traditions. Avec cependant quelques éléments neufs, comme nous l'allons voir...

Car après m'être occupé du JE sarkozyen (dont on a vu ce que ça a donné) et du JE macronien (dont on voit ce que ça donne), JE ne pouvais certes pas me soustraire à la tâche de traiter le JE bardellien (dont j'espère bien qu'on ne verra jamais ce que ça pourrait donner, même si…), qui caractérise notamment son premier opus : « Ce que JE cherche »…

*

Pour autant, Ce que je cherche et Ce que veulent les Français doivent être abordés comme un diptyque, indissociables l'un de l'autre, complémentaires, où le premier correspond à MOI, et le second à VOUS, indubitablement préparatoires à un troisième, qui devrait tourner autour du NOUS (à paraître probablement vers fin 2026 - début 2027, juste à temps...).

On pourrait presque deviner le titre, par exemple : 

  • Ce que nous ferons (titre-tradition, comme la baguette)
  • Ce que je m'engage à faire (titre-rupture, pour revenir au JE, osé...)
  • La France que nous méritons (titre-foutage de gueule, à résonance populiste, etc.)
Ce que nous ferons (ensemble), ou Ce que nous bâtirons (ensemble), restent mes préférés, ils seraient d'ailleurs logiques et cohérents avec la mise en œuvre d'un "programme" diagnostiqué dans les deux premiers, surtout dans Ce que veulent les Français (titre interchangeable avec Ce que cherchent les Français) (un peu dans le sillage de la "révolution macronienne", où C'est notre combat pour la France était parfaitement interchangeable avec C'est notre projet pour la France). Un futur président doit toujours se placer dans l'action !

Mais bon, inutile d'extrapoler pour l'instant, nous verrons bien si triptyque il y a...

En attendant la trilogie bardellienne in progress, revenons-en au diptyque. Où le dauphin doit s'acquitter d'une double tâche, imbriquée dans les deux ouvrages : 

  1. rendre hommage à Marine Le Pen, figure tutélaire de son initiation et de son ascension politiques rapides, tout en célébrant le jeune homme issu du peuple (Seine-Saint-Denis), au parcours méritocratique de self-made man à la française, qui met en scène dans Ce que je cherche une quête identitaire où il interroge sa place et sa mission ;
  2. se détacher de Marine Le Pen, qui commence à sentir le soufre (inéligibilité oblige), dans Ce que veulent les français, tout en se construisant une image de porte-parole de la volonté populaire (et non pas de chef autoritaire), qui neutralise les accusations d'extrémisme et d'idéologie butée en démontrant ses capacités d'écoute et sa volonté légitimée de transmission.
Objectif atteint : Bardella cite 134 fois Marine Le Pen dans Ce que je cherche (91 fois "Marine Le Pen" et 43 fois "Marine"), contre une seule fois (!) dans Ce que veulent les français... autant dire qu'ils ne veulent plus d'elle !

À comparer au binôme JE/MOI, cité 2923 fois

  • 1632 fois [JE = 1087 (716 JE + 371 J’) / MOI = 545 (MOI 66 + ME 255 + M’ 224)] dans Ce que je cherche,
  • 1291 fois [JE = 882 (596 JE + 286 J’) / MOI = 409 (MOI 54 + ME 188 + M’ 167)] dans Ce que veulent les français, livre censé parler des autres, il est vrai.
Détachement réussi ! Exit Marine Le Pen, non sans mentionner son « combat acharné et visionnaire », Jordan est magnanime...

*

Le parallèle entre Marine Le Pen et Jordan Bardella est plus qu'évident, puisque Marine a dû "tuer le père" pour s'émanciper en rupture avec le passé, là où Jordan doit maintenant "tuer la fille" pour s'affranchir d'une succession toujours embarrassante et enclencher la phase finale d'une dé-LePenisation définitive du parti - dont l'on rappelle qu'il est le premier parti de France en voix - afin de présidentialiser l'offre politique du RN indépendamment du nom Le Pen.

Il est donc clair que Jordan n'est pas seul dans cette tâche voire, à ce stade, que Marine s'y résigne, quand bien même à contrecœur, compte tenu des contraintes judiciaires qui pèsent sur elle. Le parti aurait tout à perdre en cas d'affrontement ouvert Le Pen-Bardella et, tant du point de vue tactique que stratégique, le coup gagnant suppose un transfert contrôlé d’autorité : conserver le capital Marine (socle, "respectabilité" acquise, réseaux) tout en présidentialisant Bardella.

Dans ce schéma, une transition "douce" et une acceptation "bon gré mal gré" de Marine Le Pen seraient à la fois logiques et cohérentes : elle reste ressource et arbitre sans être tête d'affiche. Bardella, désormais relais crédible, devient le visage d’un processus de rajeunissement et de normalisation voulu par l’appareil dans son ensemble, ainsi que par les réseaux médiatiques et les soutiens du RN qui espèrent convertir le statut du premier parti en victoire présidentielle. 

L’enjeu n’est plus seulement de trouver un nouveau leader, mais surtout de changer de marque perçue : faire du RN un parti d’alternance et non plus uniquement d’opposition ni d'extrême-droite. La tâche étant "extrêmement" facilitée par le vide sidéral en face, autant en termes de leadership que de proposition politiques ! Quand on voit que la personnalité de "gauche" la plus populaire est Roussel et que plus aucun NFP possible n'est crédible, on comprend bien que c'est déjà plié pour le "camp progressiste". Dont les principaux acteurs auront fort à faire pour limiter les dégâts.

La publication du diptyque bardellien s'inscrit brillamment dans cette dynamique, avec un timing et un sens de l'anticipation et de la réalisation parfaits !

*

Il serait totalement vain de chercher la moindre trace de spontanéité ou d'authenticité dans les écrits bardelliens, tout est savamment construit sur le papier par des équipes de communicants, de stratèges, de rédacteurs, le contenu est articulé et maîtrisé à la perfection, le ton lissé de bout en bout (d'où le "poli" du titre de ce billet), pas un mot qui dépasse, tout est tiré au cordeau, 100% fabriqué en France.

Un excellent produit marketing, un positionnement de marque sans aucune sincérité, encore moins de vérité, Jordan se contente juste d'écrire ce qu'on lui dit d'écrire, de dire ce qu'on lui dit de dire. Plus ou moins bien, selon les circonstances, mais il faut lui reconnaître un certain talent, il n'est pas donné à tout le monde de proférer des inepties avec aplomb et en gardant l'air sérieux. Comment être convaincant si l'on n'est pas convaincu soi-même. Du moins en apparence !

Régulièrement, Opinionway réalise pour Le Parisien un baromètre sur le programme politique des français : « Si j'étais président de la République... ». Plus ou moins, les principaux arguments sont toujours les mêmes, avec d'inévitables variations d'un sondage sur l'autre :

  • Le pouvoir d'achat 
  • L'immigration 
  • La sécurité 
  • La santé 
  • La transition écologique
  • L'éducation et la jeunesse 
  • La dette et les dépenses publiques 
  • Les inégalités 
  • Les retraites 
  • Le chômage 
  • Le logement

Le tiercé gagnant étant généralement pouvoir d'achat - immigration - sécurité. Or ce sont les thèmes majeurs survolés dans Ce que veulent les français, est-ce un hasard ? À vue d'œil, les autres sujets abordés sont l'Europe, l'énergie, la santé (hôpital/déserts médicaux), l'éducation, la jeunesse, et les moins analysés le logement ou les inégalités. Pratiquement rien sur le chômage, et le seuil de pauvreté n'y est mentionné qu'une seule fois en parlant des agriculteurs, alors que nous ne sommes pas loin des 10 millions de personnes pauvres en France (soit 1 français(e) sur 6), différents analystes ayant souligné qu'en 2025 la pauvreté et les inégalités ont atteint un pic trentenaire dans notre pays ! Une franche réussite de Macron et de ceux qui l'ont précédé... 

Voici le nuage des 30 termes les plus fréquents utilisés dans ce deuxième livre de Bardella :


Travail, Famille, Patrie ! Comme au bon vieux temps de Vichy et de la collaboration. Ou comment revenir d'un bond un siècle en arrière...

Juste pour comparer avec son premier opus :


Ces nuages pondèrent les termes selon leur nombre d'occurrences, dont voici le tableau général :


Chacun(e) y verra ce qui lui plaît. Ou pas.

*

Le jeune Jordan finit son livre par une litanie :

Ceux qui nous nourrissent l’ont confessé : ils ne réclament pas de privilèges. Nos agriculteurs, nos éleveurs, nos pêcheurs exigent de pouvoir vivre dignement de leur travail…

Ceux qui nous protègent méritent, eux aussi, l’estime et le respect. Qu’il s’agisse des forces de l’ordre, des pompiers, des militaires mais aussi des magistrats…

Ceux qui nous soignent ne veulent plus seulement être applaudis. (…) Être médecin, infirmier ou aide-soignant…

Ceux qui bâtissent le pays ne pourront continuer à le faire entre l’enclume de la norme et le marteau de l’impôt. Les ouvriers, les salariés, les commerçants, les artisans, les ingénieurs, les créateurs d’entreprise…

Ceux qui nous lient, instituteurs, professeurs, maires, ceux qui sont toujours présents pour nous…

Ceux qui nous font rêver, à l’image des artistes ou de nos valeureux sportifs, ont besoin de savoir la France fraternelle, assumant son identité, son drapeau et ses valeurs…

Ceux qui s’éloignent et s’expatrient ne tournent pas le dos à la France. D’où qu’ils soient, ils continuent d’en porter la voix, la langue et la culture. Leur départ nous questionne : que cherchent-ils là-bas qu’ils ne trouvent plus ici ? Nous devons retisser le lien…

Vraiment, les politiques sont des maîtres des jolis mots vides et de l'anaphore, cette rhétorique de la répétition du même mot ou groupe de mots en début de plusieurs phrases pour créer un rythme insistant, quasi incantatoire.

Je me demande juste pourquoi il commence par "Ceux qui" et non par "Celles et ceux qui", je n'ai pas trouvé la réponse. S'il me lit un jour, j'espère qu'il m'éclairera...

*

Il y a cependant dans toute perfection le petit détail qui tue, le grain de sable qui grippe les rouages de la mécanique mieux huilée. Jordan Bardella conclut Ce que je cherche sur ces mots :

Dans son poème « La France », Guillaume Apollinaire écrit le 17 décembre 1915 :

Qui donc saura jamais que de fois j’ai pleuré
Ma génération sur ton trépas sacré
Prends mes vers ô ma France Avenir Multitude
Chantez ce que je chante un chant pur le prélude
Des chants sacrés que la beauté de notre temps
Saura vous inspirer plus purs plus éclatants
Que ceux que je m’efforce à moduler ce soir
En l’honneur de l’Honneur la beauté du Devoir

Seul petit problème, Apollinaire n'a jamais écrit de poème intitulé « La France », ce passage est extrait de « Chant de l'Honneur » (Calligrammes, Poèmes de la paix et de la guerre, 1913-1916), structuré autour d'une alternance de voix (le poète / la tranchée / les balles / le poète / la France / le poète), qui se termine ainsi :

Morale de la fable : il ne suffit pas d'écrire ce qu'on vous dit d'écrire ni de dire ce qu'on vous dit de dire, encore faut-il vérifier l'exactitude de ce que l'on dit ou l'on écrit et que l'on signe !

P.S. Hallucinations...

Toujours dans mon souci de vérification, au cas où, j'ai demandé à ChatGPT s'il n'existerait pas quelque part un poème d'Apollinaire intitulé « La France » ? Réponse, suivie de l'analyse, vers par vers, dont je vous fais grâce :


AI slop, une bouillie sans nom ni aucun sens, totalement inventée !

mercredi 15 octobre 2025

Second changement de cap

Sur les deux dernières décennies, je peux diviser mon activité de blogging en deux grandes ères, avant et après 2025 :

  1. 2005-2010 : 728 billets publiés sur Adscriptor (soit une moyenne de plus de 10 billets/mois, un tous les trois jours pendant 6 ans !)
  2. 2008-2018 : Straniero, mon blog italien 
  3. 2011-2024 : 191 billets sur Adscriptor (117) et Translation 2.0 (74) (soit une moyenne à peine inférieure à 14 par an, tout juste un peu plus d’un par mois)
  4. 2025 : plus de 60 billets répartis sur mes différents blogs à ce jour (début octobre)
Ainsi, je suis passé d’une moyenne d’un billet tous les trois jours pendant 6 ans à pratiquement un billet par mois pendant 14 ans ! Sans compter les 206 billets sur mon blog italien à cheval sur cette période, de 2008 à 2018, consulté plus de 200 000 fois. Avec une médiane de 900 mots par billet français, sur plus de 900 billets !

Il y a donc au moins deux lignes de rupture nettes entre ces périodes, y compris au niveau des arguments traités. En mars 2009, j’annonçais déjà un premier changement de cap ; depuis avril 2025 un second changement de cap est à l’œuvre, j'y reviens plus loin ! 

Pour simplifier, disons que le nuage sémantique ci-dessous illustre les grands thèmes traités au cours des 20 premières années. D’aucuns diraient plus simplement un "nuage de mots" (en ce qu’il ne visualise pas les relations entre les concepts clés du corpus d'Adscriptor, mais seulement leur pondération selon la fréquence des termes), personnellement je préfère "nuage sémantique" car chaque mot est porteur de sens, hautement signifiant.


Les 20 premières années de ma présence Internet, 2005 - 2024

Elles sont marquées par les grands axes suivants, comme il ressort du nuage :
  • Présence / Web / Internet
  • Médias / Réseaux sociaux / Information
  • Propagande / Politique / Démocratie
  • Italie / Mafia / Straniero
  • Écriture / Contenu / Poésie
  • Traduction / Translation 2.0 / Federico Pucci
Juste quelques précisions sommaires sur chacun de ces grands axes.

Présence / Web / Internet

En 2005, cela faisait déjà 10 ans que je faisais une utilisation quotidienne et intensive d'Internet, notamment pour des recherches terminologiques dans le cadre de mon métier. J'étais déjà inscrit sur une place de marché dédiée à la traduction, mais je comprenais bien qu'à aucun moment mon référencement sur le Web ne dépendait de moi. D'où la nécessité de tout construire en partant de zéro, avec en amont une stratégie de présence (pourquoi être sur Internet ?), et en aval une stratégie de visibilité (comment être sur Internet ?), articulées autour de trois composantes : le sens, le contenant et le contenu.

Rien n'a changé aujourd'hui, bien au contraire. Avec environ 5 milliards de terriens connectés à Internet d'une manière ou d'une autre, être présent sans être visible revient à être absent ! Seuls les moyens et les plans d'action diffèrent pour asseoir sa propre notoriété. 

Enfin, dans le binôme "moi et les autres", je me suis intéressé de (très) près aux grands acteurs de l'époque, où il était question de GYM (pas encore de GAFAM ou autres, et encore moins de Nvidia, de Musk ou d'Altman), j'ai arrêté depuis, impossible de tout suivre !

Médias / Réseaux sociaux / Information

Internet n'est pas uniquement un catalyseur de tous les autres médias, c'est également un média à part entière, un orchestrateur d'une notion qui m'est chère, celle de « palimptextes » :

  1. L'Internet aujourd'hui : de l'hypertexte au palimptexte (19 septembre 2006)
  2. Palimptexte : une tentative de définition (23 septembre 2006)
  3. Welcome to the Word Century (3 juillet 2011)
  4. Le palimptexte terminologique (2 avril 2016)
  5. Palimptextes poétiques (10 février 2023)
En tant que médium des réseaux sociaux, il est clair qu'Internet améliore l’accès pratiquement "universel" à l’information, mais qu'en est-il de la qualité, de la fiabilité ou de l’indépendance de celle-ci ? Le seuil d'ensemencement de la désinformation n'est jamais bien loin... Il serait peut-être temps que chacun(e) fasse appel à son propre discernement, mais vu les actuels votes majoritaires des soi-disant "démocraties", ce n'est pas gagné !

Propagande / Politique / Démocratie

À force de manipuler le sens et la valeur des mots, appauvris en "éléments de langage" (expression-valise inventée par les communicants pour y fourrer tout et n'importe quoi, "écarts de langage" les définirait mieux) en vue d'être vidés de leur substance, les politiques, les journalistes, les publicitaires et autres bonimenteurs du même acabit ont allègrement franchi l'ère de la post-vérité pour rentrer dans celle de la normalisation du mensonge !

Toutes et tous mentent en permanence sans jamais (devoir) rendre compte de leur continuelle imposture, dans leurs tentatives effrénées de diviser leur pays. C'est ainsi que les politiques indignes et qui les votent mettent les démocraties à la peine, je doute d'ailleurs qu'elles s'en remettent un jour ! J'ai pourtant tenté de les défendre, mais après avoir vécu dans l'Italie à souveraineté limitée la désinformation berlusconienne massive, lui qui affirmait sans rire : « Le Président du Conseil, par définition, ne peut pas mentir ! », et en assistant impuissant à ce qui se passe aujourd'hui avec l'état-voyou d'Israël, j'avoue mon infinie lassitude : quand le mensonge devient l’air qu’on respire, les démocraties devraient retenir leur souffle. Ou pour le moins appliquer des gestes barrières, pour parler en langage pandémique. 

Ce n'est malheureusement pas ce qui se passe dans la France de Macron, où dans son genre et dans sa violence, nous ne sommes pas loin de passer de la répression d'état au terrorisme d'état. J'espère juste qu'un jour la vérité finira par rattraper Emmanuel Macron...

Italie / Mafia / Straniero

J'ai publié dans ce blog plus d'une centaine de billets fouillés sur l'Italie (très probablement plus de 100 000 mots...), la corruption endémique du système et la mafia, parce que j'estimais que les français ignoraient ce qu'est la mafia. J'ai donc tenté d'être pédagogique et d'en expliquer les rouages. Non sans combattre des idées aussi préconçues que délétères. J'ai également tenu un blog italien, intitulé le Journal d'un étranger, dont le premier billet, daté du 16 octobre 2008, disait ceci : 

Je n’ai pas la moindre idée d'où me mènera cette aventure, mais comme disent les Chinois, même un voyage de milliers de kilomètres commence par le premier pas...  

Je m’appelle Jean-Marie Le Ray, français, né à Bordeaux en 1957, en Italie depuis 82 et à Rome depuis 85. Je n’écris presque jamais en italien dans le but de préserver au maximum ma langue, et je suis déjà un blogueur actif sur le Web francophone.  

Cependant, puisqu’il se passe en Italie des choses que je subis, comme des millions d’autres italiens, j’ai de plus en plus l'envie d’exprimer mon opinion. Ça pourra toujours servir...  

Et qu'importe si ce n'était d'aucune utilité à autrui, cela nous serait au moins profitable, à ma femme, moi et notre fils, Paolo Bernard, qui est trop petit pour parler (il aura 7 ans le mois prochain). Car vu toutes les saloperies qui caractérisent aujourd’hui la politique italienne, il est certain qu’il en paiera les conséquences en grandissant, si personne ne s’oppose aux brimades quotidiennes de celles et ceux qui nous gouvernent.  

Mal, et en ne pensant qu’à leur cul (idiotisme…). Pour le dire clairement, je crois que l’entrée de Berlusconi en politique en 94 marque la fin de la démocratie. Pas tant d’une certaine idée de la démocratie, mais de la démocratie tout court. Et pas seulement en Italie.  

On verra si je parviendrai à développer de manière accomplie et cohérente la perception que j’ai...  

Cette aventure aura duré 10 ans, jusqu'en 2018 ! Je n'aurais pourtant jamais voulu parler de politique sur mes blogs (argument à bannir des espaces de discussion publique, avec la religion), mais il y a des circonstances où il est impossible de ne pas voir et raconter ce qu'il advient autour de soi.

Je terminerai ce bref aperçu en citant une italienne, Valeria Solesin, et un italien, Giulio Regeni, toujours sans justice ni vérité presque 10 ans plus tard, chers à mon cœur.

Écriture / Contenu / Poésie

L'écriture est ma vie. Depuis mon adolescence, j'écris. Personnellement, professionnellement, cela fait maintenant plus de cinquante ans ! L'écriture, c'est la forme. Le contenu, c'est le fond. De même qu'écrire pour le Web ou rédiger est différent de simplement écrire, optimiser le contenu pour le Web, où l'obsolescence arrive vite, c'est aussi autre chose. Du contenu de qualité, voire émotionnel, il va sans dire.

Écrire, c'est créer. Traduire la poésie signifie re-créer. La poésie est l'amour de jeunesse qui ne m'a jamais quitté. Surtout la forme fixe, et notamment les sonnets. J'en ai même fait un livre. Ma langue est ma patrie. Dialogue :

- « Écrire un poème pour exprimer l’amour
L’attente ou le silence, ou l’absence ou l’enfance
Le mal de mon pays, étranger à ma France
Terre que j’avais abandonnée pour toujours

Du moins l’avais-je cru, renfermé dans ma gangue
De peine et solitude mêlées aux douleurs
Pour cacher au monde ma tristesse et mes pleurs
Trop heureux d’inventer ma patrie dans ma langue

Belle ancre de salut pour échapper aux maux
De l’existence à travers l’encre bleue des mots
En joignant le sens à la parole donnée

En cohérence avec l’âme, le cœur et l’esprit
Pour raconter passé, présent et destinée
Confiés au poète et à son message écrit ! »

Beauvais, 1er octobre 2023

Traduction / Translation 2.0 / Federico Pucci

La traduction est mon métier. Quarante ans de ma vie. Plus de 20 millions de mots traduits. Dans une quarantaine de domaines. Translation 2.0, mon blog dédié. Mars 2017. Je décide de créer une infographie sur l'histoire de la traduction automatique (TA). Durant mes recherches préparatoires, je tombe sur deux documents de John Hutchins, LE spécialiste de la TA, qui mentionne un certain Federico Pucci. De Salerne. La suite au prochain épisode...

*

2025 raconte une tout autre histoire !

Huit ans plus tard. Avril 2025. Après avoir totalement ignoré le phénomène ChatGPT (arrivé en novembre 2022) pendant deux ans et demi, juste en raison d’idées préconçues erronées, je découvre enfin l’« artefact conversationnel », tel que je le dénomme.

Je suis soudainement frappé de stupeur. La révélation de la puissance et de la pertinence de l’outil amorce la bascule et la définition du dernier axe à ce jour :
  • IA / IQ / Article académique

Après des mois où des amis, des collègues et autres connaissances m'ont incité à explorer les intelligences artificielles disponibles gratuitement sur le Web, et après mes refus répétés (je ne supportais pas l'idée qu'un "robot" puisse écrire - ou traduire - à ma place), j'ai fini par céder : au mois d'avril 2025, ça se voit aux dates de mes premiers billets. Et j'avoue que j'ai été bluffé par la pertinence des réponses, d'une manière générale, mais surtout par la puissance en arrière-plan et par les implications en résultant, réelles et potentielles, actuelles et futures.

Je ne laisse toujours pas les "robots" écrire à ma place, mais j'ai décidé de me lancer dans cette série de billets pour tenter une analyse, modeste, à mon niveau d'utilisateur lambda, de ce que je nomme respectivement la troisième révolution civilisationnelle (l'intelligence artificielle), et la quatrième révolution civilisationnelle (l'informatique quantique), réunion de la partie logicielle (l'IA, le cerveau) et de la partie matérielle (l'IQ, le corps) !

J'ignore où tout cela nous portera, mais c'est phénoménal, fantastique, étonnant, extraordinaire, inouï, prodigieux, sensationnel, énorme, faramineux, fabuleux, formidable, incroyable, effarant, gigantesque, stupéfiant, surprenant, colossal, monstrueux, invraisemblable, inimaginable, monumental, époustouflant, unique, sans pareil, hors de pair, homérique, écrasant...

D’avril à juillet, je vais écrire quelque 70 000 mots sur l’intelligence artificielle (IA). Et, en marge, sur l’informatique quantique (IQ). Je n’ai presque plus de travail à cause de l’IA, ça tombe bien ! J’ai besoin de comprendre, réfléchir, prendre une pause, m’interroger. Il n’y a jamais eu rien de semblable dans l’histoire de l’humanité. Le rêve impensé de Diderot et d’Alembert. Je dois me familiariser, questionner, et apprendre à « dialoguer » avec la « chose ». 

L'interlocution ayant toujours été, jusqu'à présent, une prérogative des humains, ce n’est pas simple, mais nécessaire. Indispensable ! De même qu’il y a eu un avant et un après l’Imprimerie, un avant et un après l’Internet – qui sont selon moi les deux premières révolutions civilisationnelles –, il y a maintenant un avant et un après l’Intelligence artificielle, tout comme il y aura demain un avant et un après l’Informatique quantique.

Dialogue, donc. Encore et toujours. Je dois apprendre à me familiariser avec cette Intelligence Artefactuelle (IA :-). Je pose des questions, je vois ses ripostes s'afficher sur le prompt (...), j'itère, elle réplique, je réitère, et ainsi de suite. Elle a réponses à tout. Fournit toujours des propositions intéressantes. Parfois fausses, mais intéressantes. À moi de recouper les infos, de fouiller les sources, de chercher à comprendre, de demander des explications, et d'autres explications, puis d'autres encore...

Mais revenons-en à Pucci. Depuis huit ans, je lui ai consacré plus d'une trentaines de billets longs et détaillés, en trois langues, sans aucun résultat tangible, pas la moindre légitimation. J'enrage. Federico Pucci est LE précurseur de la traduction automatique, c'est prouvé, noir sur blanc. Et pourtant, aucune reconnaissance, totalement ignoré de son vivant autant qu'après sa mort, il y a déjà plus d'un demi-siècle. Aucun chercheur n'a daigné se pencher sur son histoire, tenté d'en savoir plus, fait montre d'un minimum de curiosité.

La bascule va se dérouler en deux jours ! Le 25 juillet 2025, je saisis ChatGPT avec le prompt suivant : 

2029 marquera le centième anniversaire de la vision conceptuelle pionnière de Federico Pucci dans la traduction automatique. Or il est encore totalement méconnu et ignoré. Rédige un plan programmatique détaillé des actions à entreprendre pour amener à la reconnaissance du rôle précurseur de Federico Pucci dans la TA. Quel type de contenus créer ? Dans quelles langues ? Pour quels supports ? Avec quelle fréquence ? Quel type d’événementiel ? Quels sont les contenus susceptibles d’avoir la portée la plus large ? Comment devenir une autorité pour les IA qui devront répondre à des questions sur Pucci ?

Je vous passe le détail des recettes proposées, sauf la première étape du plan : rédiger un article académique à publier dans une revue de premier plan et sur un site faisant autorité !

Après la censure de Wikipédia, il n'est pas simple de s'attaquer à la rédaction d'un article académique, chose dont je n'ai pas la moindre expérience, par où commencer ? Pour réfléchir au plan de mon article, je commence donc à interagir intensément avec ChatGPT et Grok (les deux IA que j'utilise de préférence, Claude arrivant en troisième position), déjà pour comprendre ce qu'est exactement un "article académique". En gros :

Article académique (ou scientifique) : texte de recherche dont l’objectif est d’apporter une contribution originale, vérifiable et située à un champ disciplinaire. Il s’appuie sur des méthodes explicites, des données/résultats présentés avec rigueur, et une discussion qui les replace dans l’état de l’art, le tout référencé, etc.

Franchement, après ma trentaine d'articles déjà publiés, je ne sais plus trop quoi dire que je n'aie déjà dit. C'est là où l'interaction avec les IA va porter ses fruits ! À force de poser des questions sur Pucci dans tous les sens, le 26 juillet Grok formule la critique suivante :

Without access to Pucci’s actual charts (e.g., page 36 of his book) or a complete “book-machine” prototype, key details about ideogram mappings, rule application, and chart structure are speculative. This lack of documentation complicates implementation...

Je comprends alors que je dois alimenter l'IA avec le matériel source de Pucci, déjà numérisé. Dont acte. Je charge toute la méthode, les tableaux de clés et d'idéogrammes, les règles, etc., et je demande à l'IA nourrie à la méthode Pucci de traduire l'un des deux extraits de texte qu'il a déjà traduits en 1931. Il est environ deux heures du matin, et j'éprouve l'une des plus grosses surprises de ma vie : ça marche ! Pour vérifier, je fais traduire l'extrait par la même IA sans qu'elle intègre la méthode Pucci, et le résultat est très différent. Je tiens enfin le matériau brut de mon article...

*

L'IA fait revivre une méthode inventée de toutes pièces il y a près d'un siècle ! Non seulement c'est étonnant, mais je ne crois pas qu'à ce jour une autre expérience de cette nature existe. En outre, il est évident que si ça marche pour Pucci, ça devrait le faire aussi pour d'autres, dans tous les domaines. Afin que l’IA puisse "réactiver" des méthodes historiques, il suffirait qu'elles soient bien documentées et structurées, ce qui représente un apport majeur pour l’archéologie des techniques...

En général, le temps garde les objets (exemple de la machine d'Artsrouni, visible à Paris, au Musée des Arts et Métiers), plus rarement les méthodes, les processus immatériels. Or la technique ne se réduit jamais à l'objet seul : l'intelligence humaine est dans le processus, pas dans le produit. Avec Pucci, nous avons l'ensemble de la méthode, de A à Z, imprimée et conservée dans son ouvrage de 1931, ce qui va permettre d'orchestrer la partition et de la rejouer avec de nouveaux instruments : les grands modèles de langage ! 

J'ai donc passé tout le mois d'août à rédiger la version anglaise de mon article. Je tiens ici à remercier le Dr Pinzhen "Patrick" Chen, qui a très gentiment parrainé ma publication sur arXiv. Précisons que sans l'IA je n'aurais pas pu rédiger seul un tel document en anglais. Mais la réciproque est tout aussi vraie : sans moi, l'IA seule n'aurait jamais su ni pu rédiger ce document dans une langue quelconque !

J'ai travaillé ensuite tout le mois de septembre sur la traduction-adaptation française de mon article, qui a presque doublé de volume par rapport à l'anglais. Pour autant, ce n'est pas seulement une version plus longue : elle élargit le cadre (neuro-symbolique, explicabilité, traçabilité), permet de mieux opérationnaliser la réplication (prompts/procédures), affine l’argument "métriques", pédagogise (glossaire, rappels) et contextualise l’article dans l’écosystème des sciences ouvertes en ajoutant des éléments pratiques de diffusion et de citation. 

J'aurais d'ailleurs souhaité publier sur HAL, qui a laissé mon dépôt mariner un mois en modération avant de refuser au motif suivant : « HAL n’accepte que les dépôts effectués par des chercheurs (au moins doctorants) affiliés à une structure de recherche reconnue et/ou bien par des auteurs ayant déjà publié dans une revue à comité de lecture. »

« Nous ne vous demandons pas de détails supplémentaires concernant le contenu de votre document, mais uniquement des précisions sur votre statut de chercheur » : rassurant de voir que ce n'est pas le contenu qui compte, toujours la forme devant le fond, cette manie bien française...

Conclusion : si je suis pas ceci ou cela, je ne peux pas être chercheur ! Comme si nos bonnes vieilles institutions en étaient restées au XXe siècle, voire au XIXe...

Heureusement que le "Deuxième Plan national pour la science ouverte" indique, entre autres, la possibilité de "simplifier le dépôt dans HAL pour les chercheurs qui publient sur d’autres plateformes en accès ouvert dans le monde" (ce qui est déjà mon cas avec la publication sur arXiv). Mais bon, la date de péremption étant 2024, on comprend mieux le refus. L'axe 1 de ce plan prévoit pourtant de "généraliser l’accès ouvert aux publications", et notamment de "favoriser le multilinguisme et la circulation des savoirs scientifiques par la traduction des publications des chercheurs français", tel qu'indiqué sur le site.

Dorénavant, puisque je ne suis pas chercheur, je vais m'employer à le devenir...

mardi 30 septembre 2025

Saint-Jérôme, patron des traducteurs : de la Vulgate à la vulgate

page IA

IA inside

*

Version anglaise sous forme de manifeste

*

Dans le cadre de l'adaptation française de mon étude en anglais sur Federico Pucci, intitulée « Le code oublié : une méthode de traduction automatique centenaire validée par l’IA », j'ai été amené à citer un extrait de Sous l’invocation de saint Jérôme, de Valery Larbaud :


Donc, en ce 30 septembre, jour où l'on fête le Patron des traducteurs, il était bien normal de lui consacrer un billet ! Sous-titré "De la Vulgate à la vulgate", il vise surtout à combattre l'actuelle vulgate en traduction, à l'œuvre depuis au moins deux ou trois décennies (depuis qu'ils prétendent qualifier la traduction de commodity, en fait), qui sévit pareillement des clients aux LSP, et plus que jamais à l'heure des LLM : toute la responsabilité d'offrir constamment au client les meilleurs DÉLAIS, les meilleurs COÛTS et la meilleure QUALITÉ incombe essentiellement au traducteur, qui n'a désormais plus son mot à dire, du moins le croient-ils...

Tout comme ils croient que la quadrature du triangle est définitivement résolue ! C'est aller un peu trop vite en besogne.

L'erreur originelle fut d'associer la traduction à une commodity, faux-ami en français (agrément, avantage, confort, utilité, ...), véritable ennemi en anglais : produit de base, matière première, simple marchandise, aucune différence entre une traduction et 1 kilo de patates ! Donc plus il y a de kilos (de quelques kmots au-delà), plus la remise doit être importante... 

Comme je le disais à l'époque, « c'est oublier un peu vite le fait que la traduction n'est pas un produit comme un autre, mais un service à haute valeur ajoutée d'autant plus spécialisé que le domaine est pointu, et que la seule matière première utilisée servant à la "fabriquer" est la matière grise du traducteur. Dont la logique objective est très exactement inverse à celle du client : plus la quantité est importante, plus ça va me demander de temps et d'effort pour maintenir le même niveau de qualité de bout en bout. Une qualité qui n'est pas acquise par enchantement, mais conquise de haute lutte. Dans la durée.
Une réalité sur laquelle les clients - et les agences qui les secondent dans cette approche pour les conserver à tout prix (c'est le cas de dire) - font trop souvent l'impasse, ce qui contribue à ternir l'image d'une profession en vérité hautement spécialisée, exigeant des années et des années de pratique et de formation continues avant de donner de bons ouvriers. De plus en plus rares. Or tout ce qui est rare est cher, qu'on se le dise. »

Non, la traduction n'a jamais été, n'est pas ni ne sera jamais une commodity

Il faut donc éliminer définitivement cette logique du prix d'une traduction au kilo, qui conduit inéluctablement à la spirale néfaste du moins-disant et à des offres anormalement basses. Lorsqu'un appel d’offres se base sur des promesses irréalistes, le LSP se rattrape ensuite sur la chaîne de production (temps, révision, profils), en transférant tout le risque résiduel - non reconnu et encore moins rémunéré - au traducteur.

Par conséquent le nombre de mots ne peut plus être la seule variable d'ajustement, à présent il faut tarifer le risque, et non plus les mots !

*

D'aucuns m'objecteront qu'à l'heure des LLM l'allégation « la seule matière première utilisée servant à "fabriquer" [une traduction] est la matière grise du traducteur » est fausse, puisque désormais, en quelques secondes, la traduction est faite à 95% (en théorie...) par le binôme traduction neuronale + transformeur. 

Le raisonnement - et le calcul - des clients et des LSP est donc le suivant : si un LLM traduit bien 95% d'un texte, il ne reste que 5% de travail au "finisseur". Autrement dit, sur un texte de 10 000 mots, on ne lui paie que 500 mots. Un peu comme si l'on disait au technicien chargé d'inspecter la bonne santé d'un pont, de trouver les fissures critiques et de répondre de son diagnostic qu'il ne sera payé qu'au m² de rouille détectée...

La post-édition sérieuse, c’est pareil. Sur 10 000 mots, en corriger 500 peut ne prendre qu’un instant ; mais savoir où et comment intervenir sur 100% du texte fourni par l’IA pour les trouver est le fruit de nombreuses années de métier et demande beaucoup plus de temps ! C’est la fameuse analogie avec la blague bien connue, souvent racontée pour illustrer la valeur de l'expertise et de l'expérience par rapport au temps passé sur une tâche :

Un cargo est en panne. Après des jours sans réussir à le faire repartir, on fait venir un vieux mécanicien. Il écoute, touche quelques tuyaux, sort un marteau, donne un unique coup — le moteur repart aussitôt. Il envoie une facture de 15 000 €. L’armateur, abasourdi, exige le détail. Le mécanicien écrit :
Frapper avec le marteau : 10 €
Savoir où frapper : 14 990 €
Total : 15 000 €

La chute étant que, par rapport à la rapidité stérile de l'IA, le « savoir où frapper » (sur le clavier :-) représente l'expertise humaine en matière de nuances, de contextes, de cultures, de techniques, etc.

*

Vu que ces 5% concentrent tout le risque, puisque c'est là où se jouent les cas limites, la robustesse, la conformité, la traçabilité et l’expérience de sécurisation de la marque client, chaque prestation ne devrait plus jamais être facturée à la seule quantité de mots, mais à la valeur de risque maîtrisé, le modèle de tarification se transformant en contrat de résultat mesurable (grille objective tenant compte du contexte, de l'audience, la conformité, la terminologie, les délais, la difficulté, la qualité exigée, etc.). 

Par curiosité, j'ai demandé à l'IA de m'énumérer les risques liés à cette approche LLM 95% - Finisseur 5%, la liste est impressionnante :

1) Qualité & exactitude

  • Hallucinations factuelles (infos inventées, citations erronées).
  • Erreurs de raisonnement (chaînes logiques cassées, mauvaise priorisation).
  • Omissions critiques (détails juridiques/techniques manquants).
  • Sur- ou sous-confiance (ton catégorique sur du douteux, ou inversement).
  • Dérive de consigne (réponses hors périmètre, non-respect du brief).
  • Fragilité aux formulations (variantes de prompt ⟶ résultats incohérents).
  • Baisse de perf sur cas rares (long tail, domaines spécialisés).
  • Mauvaise gestion du contexte (perte d’instructions, fenêtres tronquées).
  • Formatage à risque (dates, nombres, unités, balises, place-holders).

2) Sécurité & confidentialité

  • Fuites de données (PII, secrets, NDA, documents clients).
  • Prompt injection / data exfiltration via contenus sources ou outils.
  • Exposition aux plugins/outils tiers (chaîne d’approvisionnement).
  • Journalisation non maîtrisée (logs contenant des données sensibles).
  • Modèle inversé / extraction de données d’entraînement (risque IP/PII).
  • Poisoning (corruption de sources, mémoires, TM/glossaires).

3) Juridique & conformité

  • Non-conformité sectorielle (RGPD, HIPAA, finance, santé, défense).
  • Droit d’auteur / IP (restitutions trop proches, licences de données).
  • Diffamation (accusations infondées sur personnes/organisations).
  • Conseils réglementés (juridiques, médicaux, fiscaux) mal balisés.
  • Traçabilité insuffisante (impossibilité d’auditer/justifier un output).

4) Marque & réputation (clients et LSP)

  • Ton/voix de marque non respectés (trop familier, aggressif, plat).
  • Incohérence multicanale (réponses qui divergent selon points de contact).
  • Cultural missteps (gafs interculturelles, humour déplacé).
  • Biais / stéréotypes (politique, genre, ethnie, religion).
  • Crises publiques (capture d’écran virale d’une réponse inappropriée).
  • Perte de confiance (promesses marketing non tenues).

5) Spécifique LSP / localisation

  • Contresens et faux amis (juridique, médical, technique).
  • Terminologie non conforme (glossaires/termbases ignorés).
  • Erreurs de variables ({name}, {amount}, placeholders mal placés).
  • Formatage régional (dates, devises, séparateurs, sens de lecture).
  • Genre et inclusivité (accords, neutres, sensibilités locales).
  • SEO/ASO local (mots-clés inadéquats, perte de ranking).
  • Mise en page brisée (expansion/contrainte de longueur).
  • Confidentialité des contenus clients (fuites via MT/LLM).
  • Chaîne TMS/CAT (mauvaise synchronisation, segments verrouillés écrasés).

6) Opérationnel & produit

  • Latence / disponibilité (SLA non tenus, timeouts).
  • Coût imprévisible (dérive tokens, appels outils).
  • Versioning de modèles (régressions silencieuses à l’upgrade).
  • Dérive de données (changements du monde réel non absorbés).
  • Mauvais fallback (dégradations non contrôlées quand le LLM échoue).
  • Observabilité lacunaire (pas de métriques, pas d’alertes).
  • Évaluations biaisées (benchmarks non représentatifs du trafic réel).

7) Utilisateur & organisation

  • Automation bias (humains qui valident trop vite).
  • Fatigue de relecture (HITL où la vigilance chute).
  • Shadow prompts (équipes qui bricolent des prompts non validés).
  • Manque de formation (mauvais usage, attentes irréalistes).
  • Changement de process (friction, adoption partielle ⟶ trous de contrôle). 

8) Contenus sensibles & sécurité produit

  • Toxicité / harcèlement (sorties offensantes).
  • Désinformation (propagation d’erreurs plausibles).
  • Sécurité physique/IT si l’IA pilote des actions (exécute du code, commandes).
  • Ouverture aux abus (jailbreaks, détournements d’usage).

9) Gouvernance & éthique

  • Absence de politiques claires (quand utiliser / ne pas utiliser le LLM).
  • Manque de contrôle d’accès (qui peut envoyer quoi au modèle).
  • Pas de RAPID® (Recommend, Agree, Perform, Input, Decide), qui recommande, approuve, exécute, contribue en amont, décide.
  • Documentation insuffisante (prompts, jeux de tests, décisions).

Donc, lorsque l'on pense que tous ces risques, réels quand bien même rarement tous réunis dans une seule mission, sont répercutés pratiquement au seul "finisseur" sans que cela ne lui soit reconnu, ni juridiquement ni financièrement, ce n’est pas une optimisation, mais juste un transfert de risques masqué. Pour un traducteur, une traductrice - à savoir la seule personne qui n’a ni la main sur l’outil, ni la rémunération, ni les assurances correspondantes -, accepter un tel cadre de travail, c'est intenable, à la fois au plan économique, éthique et juridique, et cela revient surtout à accepter de s’exposer sans filet.

La conclusion s’impose : si l’on veut tirer parti des LLM sans fabriquer un bouc émissaire professionnel, il faut renverser l’équation de responsabilité et de valeur.

Concrètement :

  • Requalifier le rôle : le « finisseur » n’est pas un correcteur de surface mais un traducteur-rédacteur responsable d’exactitude, de conformité et de style. Ce rôle se facture et se planifie en conséquence (forfaits d’audit, tarifs différenciés selon risque, délais réalistes).
  • Contrats et responsabilités : clauses écrites sur (i) limites d’usage du LLM, (ii) répartition des responsabilités en cas d’erreur, (iii) assurance RC pro adaptée, (iv) droit de refuser une livraison si le risque est jugé trop élevé. Pas d’acceptation tacite par simple réception d’un brouillon machine.
  • Traçabilité minimale : livrer avec chaque projet un journal d’audit (sources, vérifications, décisions), versions, prompts clés et checklists passées. Sans trace, pas d’imputabilité raisonnable.
  • Garde-fous techniques : exigences non négociables côté donneur d’ordre : filtres PII, détection d’hallucinations, tests de régression, échantillons de contrôle humain, solution de repli définie si le modèle déraille.
  • Gouvernance : politiques claires « quand utiliser / ne pas utiliser », matrice RAPID® pour qui recommande/valide/décide, contrôle d’accès et formation obligatoire des équipes. Fin des « shadow prompts » (prompts fantômes consignes LLM non officielles et non contrôlées que des personnes utilisent “en douce” pour obtenir un meilleur résultat — en dehors des prompts, modèles et politiques validés par l’équipe.
  • Prix indexé au risque : plus le contexte est sensible (médical, juridique, marque globale), plus le coût du contrôle augmente. À défaut, on optimise le coût apparent en creusant une dette de risque qui explosera en aval.
  • Transparence client : mention explicite d’un taux d’IA dans la chaîne, de ses limites et du périmètre exact de la relecture humaine. La confiance se gagne en amont, pas en post-mortem (autrement dit, avant que l'incident ne survienne).

Traduire, c'est maîtriser deux textes : le source et le cible. Saint Jérôme nous enseigne que le triptyque ci-après est non négociable :

  • Adéquation au vrai (sources, faits, citations),
  • Intelligibilité (lecteurs, usages, contexte),
  • Assomption de responsabilité (choix, vérifications, réparations).

Les modèles, métriques et outils, LLM compris, ne sont que des moyens au service de ce triple devoir. C'est pourquoi un nouveau modèle de tarification basée sur la maîtrise du risque, et non plus sur un décompte des mots au kilo – qui prenne en considération tous les éléments ci-dessus –, doit devenir la norme en traduction : la vulgate a fait son temps ! 


P.S. La valeur de 5% a été retenue par simplicité d’analyse ; le raisonnement demeure valide avec 7 %, 10 % ou tout autre ordre de grandeur.

lundi 8 septembre 2025

Federico Pucci vs Georges Artsrouni et Piotr Smirnov-Trojanskij

page IA

IA inside

*

En 1949, le CNR - Conseil National des Recherches, équivalent italien de notre CNRS - avait écarté Federico Pucci sous prétexte qu’il n’avait jamais construit de « machine à traduire ». Aujourd’hui, 75 ans plus tard, l’histoire prend un tournant ironique : les machines d’Artsrouni et de Trojanskij dorment sur les étagères des musées, tandis que la méthode purement théorique de Pucci retrouve une vie nouvelle grâce à l’intelligence artificielle.

Ce qui fut considéré comme une faiblesse à l'époque – l'absence de matérialité, aucun prototype – devient aujourd'hui la force de Pucci, sa revanche posthume : nous avoir légué les deux premiers textes traduits "mécaniquement" au monde, et avoir conçu un système idéographique et interlingua si abstrait et visionnaire qu’il a pu traverser le temps et renaître au XXIe siècle via les « machines immatérielles » de l’IA.

Le traducteur sans machine d'hier est finalement le seul qui fonctionne encore, comme je l'explique ici dans le détail. Les versions en français et en italien de mon étude suivront bientôt...

*

J'y décris l'opérationnalisation par l'IA d'une méthode conçue il y a près d'un siècle, d'abord présentée en public au mois de décembre 1929, puis publiée à Salerne (Italie) en 1931 et primée par une médaille d'argent à l’exposition-concours internationale des inventions de la foire de Paris, en mai 1935 :


alors intitulée : « une méthode pour traduire les langues sans les connaître », preuve qu'une approche « pré-numérique » peut renaître aujourd’hui.

La question coule de source : comment opérationnaliser via l'IA moderne ces trois systèmes historiques de traduction mécanique, analyser la possibilité de les faire revivre en 2025 et comparer leurs similitudes/différences ?

Le contexte historique est le suivant :
  • Pucci : système idéographique et symbolique (1931), testé expérimentalement via les LLM en 2025.
  • Artsrouni : prototype de « cerveau mécanique » (1932-1933), basé sur un système de recherche lexicale.
  • Trojanskij : méthode interlingua en trois étapes (1933-1935), analyse logique → interlingua → recomposition.
Personnellement, leur contemporanéité est l'élément qui me frappe le plus. C'est la toute première réflexion de mon étude (j'adapte) :
Le phénomène des inventions simultanées, par lequel plusieurs individus — souvent isolés les uns des autres et situés dans différents pays — aboutissent indépendamment à une même découverte, montre que les percées scientifiques et technologiques ne résultent pas uniquement de collaborations directes, mais aussi de contextes intellectuels, sociaux et techniques communs, propices à l’émergence parallèle d’idées similaires. L’un des exemples les plus emblématiques est le déchiffrement des hiéroglyphes égyptiens au XIXᵉ siècle, où les travaux parallèles de Jean-François Champollion en France et de Thomas Young au Royaume-Uni, rendus possibles par l’étude de la Pierre de Rosette et par une connaissance croissante du copte, illustrent la convergence de recherches distinctes au sein d’un même environnement intellectuel. Ce modèle dépasse le seul champ des écritures anciennes : le développement de la traduction automatique constitue lui aussi un cas paradigmatique d’invention simultanée, puisque, bien avant l’ère informatique, des chercheurs de différents pays concevaient déjà l’idée de machines capables de franchir les barrières linguistiques.
 *

Cadre méthodologique d'opérationnalisation (établissement d'un lien entre la théorie et la pratique) :


Question faisabilité, si Pucci a déjà été validé avec succès (preuve de la robustesse de la méthode), Artsrouni devrait être plus facile à émuler comme système de recherche (mais avec une valeur limitée sur le plan linguistique) et Trojanskij être plus complexe, mais hautement intéressant au plan scientifique, en montrant la valeur symbolique (Pucci, Trojanskij) vs mécanique (Artsrouni), et en soulignant l’apport historiographique de l’IA comme outil de revalorisation.

Il convient tout d'abord de mettre Pucci à part, pour comparer juste Artsrouni et Trojanskij.

Vue d’ensemble de l'idée de machine d’Artsrouni

D'abord appelée « cerveau mécanique », il s'agit essentiellement d'un dictionnaire automatique multilingue basé sur des bandes perforées (carton souple) disposées en colonnes pour plusieurs langues. Ce dispositif permettait la recherche et l’impression de traductions mot à mot : chaque ligne contenait une entrée pouvant aller jusqu’à quatre langues, 40 000 lignes possibles, avec des temps de réponse ne dépassant pas quelques secondes.

Ce que l’IA peut offrir aujourd’hui 

En simulant le comportement (en émulant la fonction) de la machine grâce aux LLM (GPT, Claude, Grok, etc.), il est possible de reproduire son fonctionnement sans en recréer le mécanisme matériel :

  1. Encodage digital du lexique multilingue (similaire à la bande perforée).
  2. Interface utilisateur simulée : on entre un mot source, l’IA affiche les équivalents automatiquement. 
  3. Rapidité et flexibilité améliorées (pas de contraintes physiques, accès instantané). 

voir d'améliorer la machine d’origine :

  • Ajouter le contexte, la gestion des variantes linguistiques ou des expressions idiomatiques. 
  • Intégrer une morphologie minimale, par exemple pour gérer genre ou nombre (absent dans la simple table d’origine). 
  • Offrir une adaptabilité à des langues multiples, même si Artsrouni se limitait à quelques langues dans un même dispositif.

Limitations & différences essentielles

  • Pas de traduction syntaxique : la machine Artsrouni était purement lexicale, elle ne rendait pas la grammaire ni le sens global. 
  • Pas d’analyse linguistique : aucune décomposition syntaxique ou interprétation sémantique, ce que permettent aujourd’hui les modèles neuronaux. 
  • Il s’agit donc d’une simulation partielle : ce n’est pas une machine de traduction complète, mais un simulateur de dictionnaire multilingue automatisé.

Exemple de protocole expérimental

  1. Récupérer ou créer un lexique multilingue (simulateur de la bande perforée). 
  2. Construire une interface LLM qui prend un mot source et retourne les équivalents dans les langues cibles (via base de données ou via LLM avec instructions). 
  3. Évaluer la correspondance (exactitude lexicale, rapidité) par rapport à la machine historique.
  4. Éventuellement, enrichir avec des exemples contextuels ou constructions grammaticales pour améliorer l’utilité.

Conclusion 

Il ne s'agit pas de reconstruire la machine physique, mais de recréer son opération fonctionnelle via l’IA. Aujourd'hui, grâce aux technologies numériques, nous pouvons simuler et même dépasser ce que la machine d’Artsrouni apportait, tout en conservant son principe (dictionnaire mécanique multilingue) et en le modernisant. C'est en cela que tient la véritable valeur historique et technique de ce projet — un précurseur que l’on peut désormais faire revivre dans un environnement numérique. 

*

Vue d'ensemble de la méthode interlingua symbolique de Trojanskij

Sa méthode repose sur l’idée d’une interlingua symbolique, conçue comme une représentation logique intermédiaire entre deux langues naturelles. Inspiré par l’espéranto mais plus abstrait, ce dispositif visait à formaliser la structure grammaticale et sémantique des énoncés en une forme logique standardisée, indépendante des spécificités linguistiques nationales. 

Le processus de traduction se déroulait en trois étapes :

  1. Analyse logique du texte source par un opérateur monolingue, transformant le texte national-grammatical (A) en une forme logique universelle (A’). 
  2. Conversion mécanique de cette forme logique en une autre forme logique correspondant à la langue cible (B’), à l’aide d’un dictionnaire, d’un glossaire de synonymes et d’une interlingua symbolique.
  3. Restitution du texte final (B) en langue naturelle par un second opérateur monolingue, à partir de la forme logique intermédiaire (B’). 

Ainsi, la machine de Trojanskij ne se limitait pas à un dictionnaire mécanique comme celle d’Artsrouni, mais visait un véritable système de traduction universel, avec un rôle central accordé à la logique symbolique et à l’analyse grammaticale abstraite.

Ce que l’IA peut offrir aujourd’hui (voire améliorer le principe d’origine)

Les modèles de langage actuels (LLM) permettent :

  • d'opérationnaliser automatiquement la transformation (A → A’), grâce à leurs capacités d’analyse syntaxique et sémantique, sans exiger l’intervention humaine initialement prévue par Trojanskij.
  • de simuler l’interlingua de manière computationnelle : l’IA peut encoder le texte source dans une représentation vectorielle ou symbolique et la contraindre à respecter un schéma interlingua proche de celui décrit par Trojanskij.
  • d'automatiser la phase B’ → B : là où Trojanskij prévoyait l’intervention d’un second opérateur monolingue, l’IA peut directement générer un texte grammaticalement correct et idiomatique dans la langue cible.
  • d'améliorer le principe d’origine : contrairement aux moyens de son époque, l’IA peut gérer de vastes corpus multilingues, produire des représentations interlinguales plus riches (incluant synonymes, homonymes, idiomatismes), et même de généraliser le système à des familles linguistiques non prévues par Trojanskij.

Limitations & différences essentielles 

  • Absence de spécifications complètes : la méthode de Trojanskij est partiellement documentée (brevets, descriptions ultérieures), ce qui nécessite une reconstruction interprétative par l’IA. 
  • Nature de l’interlingua : Trojanskij envisageait une interlingua strictement logique et symbolique, inspirée de l’espéranto. Les LLM, eux, opèrent par représentations statistiques continues ; l’alignement parfait entre les deux paradigmes n’est donc pas garanti. 
  • Rôle des opérateurs humains : la vision de Trojanskij reposait sur deux personnes monolingues pour assurer la phase d’analyse et de restitution. L’IA moderne court-circuite ces étapes, ce qui simplifie mais aussi modifie la nature collaborative initiale du processus. 

Donc, malgré les avancées incontestables de l'IA, l'opérationnalisation de sa méthode s'avère plutôt complexe : reconstruire l’interlingua décrite par Trojanskij et la rendre exploitable par un LLM, d'où l'exigence d'encoder règles grammaticales, catégories logiques et transformations syntaxiques. La méthode symbolique originale est déterministe et explicable, mais les LLM neuronaux sont des boîtes noires, rendant les erreurs difficiles à tracer. De plus, l'analyse logique automatique n'est pas parfaite pour les nuances culturelles ou idiomatiques, nécessitant toujours une post-édition humaine.

Côté différences, si Trojanskij est purement symbolique et mécanique, axé sur une interlingua explicite (symboles espéranto-like), l'IA moderne est majoritairement neuronale (end-to-end sans pivot explicite), bien que des hybrides émergent. L'original était monolingue et humain-dépendant, or en automatisant tout, l'IA perd en universalité stricte (pas de "logique universelle" pure). 

Exemple de protocole expérimental

Pour tester cette opérationnalisation, un protocole expérimental simple, implémentable avec des outils comme Python (spaCy pour parsing, Hugging Face Transformers pour traduction), pourrait être exécutable sur des plateformes comme Google Colab, pour valider l'amélioration IA tout en mesurant les limitations (ex. : taux d'erreur sur idiomes ~15-20 %).

Préparation : créer un dictionnaire multilingue symbolique (ex. : base de données JSON avec formes de base et symboles pour français, russe, anglais) ; utiliser un corpus test (ex. : phrases de Trojanskij comme "Le parti périt s’il commence à cacher ses erreurs").

Étapes :

  1. Pré-édition IA : soumettre la phrase source à un modèle NLP (ex. : spaCy) pour extraire formes de base et assigner symboles (ex. : "parti-o" pour sujet nominatif). Désambiguïser via prompt LLM : "Analyse logique : parti (groupe politique) -o, périr -as...".
  2. Traduction pivot : mapper via embeddings (Sentence Transformers) aux équivalents cibles, transférant symboles (ex. : "parti-o" → "партия-o" en russe).
  3. Post-édition IA : utiliser un LLM pour générer le texte final : "Prompt : Combine formes et symboles pour russe cohérent."

Évaluation : comparer avec traduction humaine (BLEU score, évaluation humaine). Tester sur 100 phrases, mesurant précision (fidélité symbolique) et fluidité. Variantes : Ajouter bruit (ambiguïtés) pour évaluer robustesse.

Conclusion

L'opérationnalisation de la méthode de Trojanskij via l'IA en 2025 revitalise une vision pionnière, transformant une approche mécanique symbolique en un système hybride puissant, scalable et automatisé. Bien que l'IA dépasse l'original en gérant le contexte et la multilingualité, elle introduit des défis comme l'opacité et les hallucinations, soulignant la pertinence d'hybrides symbolique-neuronaux pour une TA plus fiable. Ce revival pourrait inspirer des applications dans certains domaines sensibles (scientifique, diplomatique), où la logique explicite prime, confirmant Trojanskij comme un précurseur sous-estimé de la TA moderne.

*

Je ne vais pas ici décrire l'opérationnalisation via l'IA de la méthode Pucci, détaillée dans mon étude sur arXiv, et dont j'actualiserai bientôt les versions française et italienne. 

Mais si recréer Artsrouni aujourd’hui se rapproche davantage d'un projet muséal en simulant un "simple" dictionnaire mécanique, recréer Trojanskij s'apparente à un projet scientifique bien plus ambitieux, de quasi-archéologie numérique.

En ce sens, Pucci est beaucoup plus proche de Trojanskij que d'Artsrouni. Comme j'ai eu l'occasion de le mentionner en reprenant une remarque de Hutchins (Troyanskii was undoubtedly more interested in the mechanics of his proposal than the linguistic details of the translation processes themselves), Trojanskij était sans aucun doute bien plus ingénieur que linguiste, et Pucci exactement le contraire. C'est probablement la raison pour laquelle il n'a jamais pu construire la "machine à traduire" qu'il avait pourtant prévue dans les moindres détails.

Mais laissons le dernier mot à Hutchins, qui conclut ainsi son papier - coécrit avec Evgenii Lovtskii - intitulé « Petr Petrovich Troyanskii (1894–1950): A forgotten pioneer of mechanical translation » : 

There is little doubt that, if they had been known to the earliest Russian researchers, Troyanskii’s ideas would have been among the first to be tested on the new electronic computers and that Troyanskii would today be ranked alongside Weaver as an acknowledged “father” of MT.

Donc, de la même manière qu’Hutchins a pu affirmer à propos de Petr Petrovič Trojanskij que, si ses travaux avaient été connus des premiers chercheurs russes, ils auraient sans doute compté parmi les premiers à être testés sur les ordinateurs naissants et auraient valu à leur auteur une reconnaissance équivalente à celle de Warren Weaver, il est légitime d'avancer une conclusion analogue pour Federico Pucci. Publiée dès 1931, sa méthode anticipait à la fois les architectures symboliques à base de règles et les principes interlingua de la traduction automatique, tout en proposant une formalisation systématique suffisamment robuste pour être opérationnalisée avec les moyens numériques ultérieurs.

Si ses travaux avaient circulé au moment opportun — en Italie comme à l’international — Pucci aurait très probablement été intégré au canon fondateur de la discipline et reconnu comme l’un des « pères » de la traduction automatique. La validation contemporaine de sa méthode par l’intelligence artificielle, près d’un siècle plus tard, confirme a posteriori la pertinence et la valeur structurante de sa contribution.

samedi 30 août 2025

Is AI Making Us Stupid?

page IA

IA inside

*

Update on a translational AI working the way it did a century ago…

*

In the summer of 2008, The Atlantic published "Is Google Making Us Stupid?", an article by Nicholas Carr, whose main argument was that the Internet may have had detrimental effects on cognition by diminishing our capacity for concentration and contemplation. His central thesis was that the Internet's design—with its hyperlinks, constant distractions, and shallow "scanning" of information—was eroding our capacity for deep reading and sustained focus. His fear was that by offloading memory and attention to the network, we were sacrificing our ability for reflection and creative thought.

Seventeen years later, can we say the same about AI? 

Yes, this argument applies with surprising force to modern AI:

  • Diminished Critical Thinking: Just as the Internet was accused of making us "lazy readers," AI is accused of making us "lazy thinkers." Why spend time formulating an argument, structuring a paper, or even solving a complex problem when an AI can generate a plausible, pre-packaged answer in seconds? The fear is that we are outsourcing our critical reasoning, allowing a machine to bypass the very cognitive work that makes us smarter.
  • Skill Erosion: Carr worried that a reliance on Google would diminish our memory and research skills. Today, the same concern exists for generative AI. If an AI can write code, translate, draft a report, or outline an essay, what happens to our fundamental skills in these areas? The argument is that over-reliance on AI could lead to a dependency where the user loses the ability to perform these tasks on their own.
  • The Problem of the "Black Box": A key difference, but one that strengthens the parallel, is the "black box" issue. While the Internet provides a vast, disorganized library, an AI provides a single, confident answer without showing its work. This bypasses the act of verification and reasoning, encouraging a passive acceptance of information rather than active, critical engagement.
The most compelling counter-argument to the "AI is making us stupid" thesis could be that it fundamentally miscategorizes the technology. Unlike the Internet, which primarily serves as a vast, passive library for information consumption, modern AI is an engine for creation and synthesis. Its primary function isn't just to present data, but to manipulate, structure, and generate new content from that data.

This distinction reframes the debate entirely. Proponents of AI don't see it as a force that diminishes our intelligence; rather, they view it as an intelligence amplifier. The core argument is that AI acts as a "co-pilot," taking over the tedious, routine, or data-intensive aspects of a task—the "mechanical effort"—and thereby freeing up our cognitive resources for higher-level, more creative, and more critical pursuits.

The arguments about AI's impact on our minds are not new. They are a modern echo of a recurring anxiety that has accompanied every major technological revolution. We have a deep-seated fear that a new technology will fundamentally alter, and almost always for the worse, our most cherished cognitive abilities. 

In Phaedrus, Plato, through the voice of Socrates, famously argued that writing was a dangerous technology. He worried that it would erode our memory, making people dependent on external symbols and "destroying their minds" by giving them the appearance of knowledge without genuine understanding. 

Centuries later, the printing press was met with similar suspicion. Critics feared that it would lead to a flood of misinformation, cheapen knowledge, and make people passive consumers of text rather than active participants in intellectual discourse.

In the 20th and 21st centuries, television and the Internet were similarly accused of turning us into passive, distracted, and superficial thinkers, eroding our capacity for deep reading and sustained concentration—the very argument Nicholas Carr made. 

Is this fear about AI justified? Or is AI simply the latest tool that will force us to adapt and evolve? The answer may lie not in the technology itself, but in how we choose to use it. Just as the printing press led to both propaganda and the Renaissance, and the Internet to both misinformation and unprecedented access to knowledge, the ultimate impact of AI will depend on whether we use it to outsource our minds or to empower them.

In the end, the question is not whether AI will make us stupid, but whether we will allow ourselves to become passive in its presence. History shows that every new technology—from writing, to the press, to the Internet—has provoked the same concerns: that it would erode our deepest cognitive faculties. And in every case, those fears were both right and wrong: right in that each tool reshaped how we think, wrong in assuming that such reshaping must mean decline. 

AI will be no different. If we approach it as a substitute for thought, it risks flattening our intellectual capacities into passive consumption. But if we treat it as an extension of thought, a co-creative instrument that demands our judgment and discernment, it has the potential to amplify rather than diminish us. The real danger, then, is not that AI will make us stupid—but that in surrendering the final act of critical reflection to the machine, we will make ourselves so.