mardi 30 septembre 2025

Saint-Jérôme, patron des traducteurs : de la Vulgate à la vulgate

page IA

IA inside

*

Version anglaise sous forme de manifeste

*

Dans le cadre de l'adaptation française de mon étude en anglais sur Federico Pucci, intitulée « Le code oublié : une méthode de traduction automatique centenaire validée par l’IA », j'ai été amené à citer un extrait de Sous l’invocation de saint Jérôme, de Valery Larbaud :


Donc, en ce 30 septembre, jour où l'on fête le Patron des traducteurs, il était bien normal de lui consacrer un billet ! Sous-titré "De la Vulgate à la vulgate", il vise surtout à combattre l'actuelle vulgate en traduction, à l'œuvre depuis au moins deux ou trois décennies (depuis qu'ils prétendent qualifier la traduction de commodity, en fait), qui sévit pareillement des clients aux LSP, et plus que jamais à l'heure des LLM : toute la responsabilité d'offrir constamment au client les meilleurs DÉLAIS, les meilleurs COÛTS et la meilleure QUALITÉ incombe essentiellement au traducteur, qui n'a désormais plus son mot à dire, du moins le croient-ils...

Tout comme ils croient que la quadrature du triangle est définitivement résolue ! C'est aller un peu trop vite en besogne.

L'erreur originelle fut d'associer la traduction à une commodity, faux-ami en français (agrément, avantage, confort, utilité, ...), véritable ennemi en anglais : produit de base, matière première, simple marchandise, aucune différence entre une traduction et 1 kilo de patates ! Donc plus il y a de kilos (de quelques kmots au-delà), plus la remise doit être importante... 

Comme je le disais à l'époque, « c'est oublier un peu vite le fait que la traduction n'est pas un produit comme un autre, mais un service à haute valeur ajoutée d'autant plus spécialisé que le domaine est pointu, et que la seule matière première utilisée servant à la "fabriquer" est la matière grise du traducteur. Dont la logique objective est très exactement inverse à celle du client : plus la quantité est importante, plus ça va me demander de temps et d'effort pour maintenir le même niveau de qualité de bout en bout. Une qualité qui n'est pas acquise par enchantement, mais conquise de haute lutte. Dans la durée.
Une réalité sur laquelle les clients - et les agences qui les secondent dans cette approche pour les conserver à tout prix (c'est le cas de dire) - font trop souvent l'impasse, ce qui contribue à ternir l'image d'une profession en vérité hautement spécialisée, exigeant des années et des années de pratique et de formation continues avant de donner de bons ouvriers. De plus en plus rares. Or tout ce qui est rare est cher, qu'on se le dise. »

Non, la traduction n'a jamais été, n'est pas ni ne sera jamais une commodity

Il faut donc éliminer définitivement cette logique du prix d'une traduction au kilo, qui conduit inéluctablement à la spirale néfaste du moins-disant et à des offres anormalement basses. Lorsqu'un appel d’offres se base sur des promesses irréalistes, le LSP se rattrape ensuite sur la chaîne de production (temps, révision, profils), en transférant tout le risque résiduel - non reconnu et encore moins rémunéré - au traducteur.

Par conséquent le nombre de mots ne peut plus être la seule variable d'ajustement, à présent il faut tarifer le risque, et non plus les mots !

*

D'aucuns m'objecteront qu'à l'heure des LLM l'allégation « la seule matière première utilisée servant à "fabriquer" [une traduction] est la matière grise du traducteur » est fausse, puisque désormais, en quelques secondes, la traduction est faite à 95% (en théorie...) par le binôme traduction neuronale + transformeur. 

Le raisonnement - et le calcul - des clients et des LSP est donc le suivant : si un LLM traduit bien 95% d'un texte, il ne reste que 5% de travail au "finisseur". Autrement dit, sur un texte de 10 000 mots, on ne lui paie que 500 mots. Un peu comme si l'on disait au technicien chargé d'inspecter la bonne santé d'un pont, de trouver les fissures critiques et de répondre de son diagnostic qu'il ne sera payé qu'au m² de rouille détectée...

La post-édition sérieuse, c’est pareil. Sur 10 000 mots, en corriger 500 peut ne prendre qu’un instant ; mais savoir où et comment intervenir sur 100% du texte fourni par l’IA pour les trouver est le fruit de nombreuses années de métier et demande beaucoup plus de temps ! C’est la fameuse analogie avec la blague bien connue, souvent racontée pour illustrer la valeur de l'expertise et de l'expérience par rapport au temps passé sur une tâche :

Un cargo est en panne. Après des jours sans réussir à le faire repartir, on fait venir un vieux mécanicien. Il écoute, touche quelques tuyaux, sort un marteau, donne un unique coup — le moteur repart aussitôt. Il envoie une facture de 15 000 €. L’armateur, abasourdi, exige le détail. Le mécanicien écrit :
Frapper avec le marteau : 10 €
Savoir où frapper : 14 990 €
Total : 15 000 €

La chute étant que, par rapport à la rapidité stérile de l'IA, le « savoir où frapper » (sur le clavier :-) représente l'expertise humaine en matière de nuances, de contextes, de cultures, de techniques, etc.

*

Vu que ces 5% concentrent tout le risque, puisque c'est là où se jouent les cas limites, la robustesse, la conformité, la traçabilité et l’expérience de sécurisation de la marque client, chaque prestation ne devrait plus jamais être facturée à la seule quantité de mots, mais à la valeur de risque maîtrisé, le modèle de tarification se transformant en contrat de résultat mesurable (grille objective tenant compte du contexte, de l'audience, la conformité, la terminologie, les délais, la difficulté, la qualité exigée, etc.). 

Par curiosité, j'ai demandé à l'IA de m'énumérer les risques liés à cette approche LLM 95% - Finisseur 5%, la liste est impressionnante :

1) Qualité & exactitude

  • Hallucinations factuelles (infos inventées, citations erronées).
  • Erreurs de raisonnement (chaînes logiques cassées, mauvaise priorisation).
  • Omissions critiques (détails juridiques/techniques manquants).
  • Sur- ou sous-confiance (ton catégorique sur du douteux, ou inversement).
  • Dérive de consigne (réponses hors périmètre, non-respect du brief).
  • Fragilité aux formulations (variantes de prompt ⟶ résultats incohérents).
  • Baisse de perf sur cas rares (long tail, domaines spécialisés).
  • Mauvaise gestion du contexte (perte d’instructions, fenêtres tronquées).
  • Formatage à risque (dates, nombres, unités, balises, place-holders).

2) Sécurité & confidentialité

  • Fuites de données (PII, secrets, NDA, documents clients).
  • Prompt injection / data exfiltration via contenus sources ou outils.
  • Exposition aux plugins/outils tiers (chaîne d’approvisionnement).
  • Journalisation non maîtrisée (logs contenant des données sensibles).
  • Modèle inversé / extraction de données d’entraînement (risque IP/PII).
  • Poisoning (corruption de sources, mémoires, TM/glossaires).

3) Juridique & conformité

  • Non-conformité sectorielle (RGPD, HIPAA, finance, santé, défense).
  • Droit d’auteur / IP (restitutions trop proches, licences de données).
  • Diffamation (accusations infondées sur personnes/organisations).
  • Conseils réglementés (juridiques, médicaux, fiscaux) mal balisés.
  • Traçabilité insuffisante (impossibilité d’auditer/justifier un output).

4) Marque & réputation (clients et LSP)

  • Ton/voix de marque non respectés (trop familier, aggressif, plat).
  • Incohérence multicanale (réponses qui divergent selon points de contact).
  • Cultural missteps (gafs interculturelles, humour déplacé).
  • Biais / stéréotypes (politique, genre, ethnie, religion).
  • Crises publiques (capture d’écran virale d’une réponse inappropriée).
  • Perte de confiance (promesses marketing non tenues).

5) Spécifique LSP / localisation

  • Contresens et faux amis (juridique, médical, technique).
  • Terminologie non conforme (glossaires/termbases ignorés).
  • Erreurs de variables ({name}, {amount}, placeholders mal placés).
  • Formatage régional (dates, devises, séparateurs, sens de lecture).
  • Genre et inclusivité (accords, neutres, sensibilités locales).
  • SEO/ASO local (mots-clés inadéquats, perte de ranking).
  • Mise en page brisée (expansion/contrainte de longueur).
  • Confidentialité des contenus clients (fuites via MT/LLM).
  • Chaîne TMS/CAT (mauvaise synchronisation, segments verrouillés écrasés).

6) Opérationnel & produit

  • Latence / disponibilité (SLA non tenus, timeouts).
  • Coût imprévisible (dérive tokens, appels outils).
  • Versioning de modèles (régressions silencieuses à l’upgrade).
  • Dérive de données (changements du monde réel non absorbés).
  • Mauvais fallback (dégradations non contrôlées quand le LLM échoue).
  • Observabilité lacunaire (pas de métriques, pas d’alertes).
  • Évaluations biaisées (benchmarks non représentatifs du trafic réel).

7) Utilisateur & organisation

  • Automation bias (humains qui valident trop vite).
  • Fatigue de relecture (HITL où la vigilance chute).
  • Shadow prompts (équipes qui bricolent des prompts non validés).
  • Manque de formation (mauvais usage, attentes irréalistes).
  • Changement de process (friction, adoption partielle ⟶ trous de contrôle). 

8) Contenus sensibles & sécurité produit

  • Toxicité / harcèlement (sorties offensantes).
  • Désinformation (propagation d’erreurs plausibles).
  • Sécurité physique/IT si l’IA pilote des actions (exécute du code, commandes).
  • Ouverture aux abus (jailbreaks, détournements d’usage).

9) Gouvernance & éthique

  • Absence de politiques claires (quand utiliser / ne pas utiliser le LLM).
  • Manque de contrôle d’accès (qui peut envoyer quoi au modèle).
  • Pas de RAPID® (Recommend, Agree, Perform, Input, Decide), qui recommande, approuve, exécute, contribue en amont, décide.
  • Documentation insuffisante (prompts, jeux de tests, décisions).

Donc, lorsque l'on pense que tous ces risques, réels quand bien même rarement tous réunis dans une seule mission, sont répercutés pratiquement au seul "finisseur" sans que cela ne lui soit reconnu, ni juridiquement ni financièrement, ce n’est pas une optimisation, mais juste un transfert de risques masqué. Pour un traducteur, une traductrice - à savoir la seule personne qui n’a ni la main sur l’outil, ni la rémunération, ni les assurances correspondantes -, accepter un tel cadre de travail, c'est intenable, à la fois au plan économique, éthique et juridique, et cela revient surtout à accepter de s’exposer sans filet.

La conclusion s’impose : si l’on veut tirer parti des LLM sans fabriquer un bouc émissaire professionnel, il faut renverser l’équation de responsabilité et de valeur.

Concrètement :

  • Requalifier le rôle : le « finisseur » n’est pas un correcteur de surface mais un traducteur-rédacteur responsable d’exactitude, de conformité et de style. Ce rôle se facture et se planifie en conséquence (forfaits d’audit, tarifs différenciés selon risque, délais réalistes).
  • Contrats et responsabilités : clauses écrites sur (i) limites d’usage du LLM, (ii) répartition des responsabilités en cas d’erreur, (iii) assurance RC pro adaptée, (iv) droit de refuser une livraison si le risque est jugé trop élevé. Pas d’acceptation tacite par simple réception d’un brouillon machine.
  • Traçabilité minimale : livrer avec chaque projet un journal d’audit (sources, vérifications, décisions), versions, prompts clés et checklists passées. Sans trace, pas d’imputabilité raisonnable.
  • Garde-fous techniques : exigences non négociables côté donneur d’ordre : filtres PII, détection d’hallucinations, tests de régression, échantillons de contrôle humain, solution de repli définie si le modèle déraille.
  • Gouvernance : politiques claires « quand utiliser / ne pas utiliser », matrice RAPID® pour qui recommande/valide/décide, contrôle d’accès et formation obligatoire des équipes. Fin des « shadow prompts » (prompts fantômes consignes LLM non officielles et non contrôlées que des personnes utilisent “en douce” pour obtenir un meilleur résultat — en dehors des prompts, modèles et politiques validés par l’équipe.
  • Prix indexé au risque : plus le contexte est sensible (médical, juridique, marque globale), plus le coût du contrôle augmente. À défaut, on optimise le coût apparent en creusant une dette de risque qui explosera en aval.
  • Transparence client : mention explicite d’un taux d’IA dans la chaîne, de ses limites et du périmètre exact de la relecture humaine. La confiance se gagne en amont, pas en post-mortem (autrement dit, avant que l'incident ne survienne).

Traduire, c'est maîtriser deux textes : le source et le cible. Saint Jérôme nous enseigne que le triptyque ci-après est non négociable :

  • Adéquation au vrai (sources, faits, citations),
  • Intelligibilité (lecteurs, usages, contexte),
  • Assomption de responsabilité (choix, vérifications, réparations).

Les modèles, métriques et outils, LLM compris, ne sont que des moyens au service de ce triple devoir. C'est pourquoi un nouveau modèle de tarification basée sur la maîtrise du risque, et non plus sur un décompte des mots au kilo – qui prenne en considération tous les éléments ci-dessus –, doit devenir la norme en traduction : la vulgate a fait son temps ! 


P.S. La valeur de 5% a été retenue par simplicité d’analyse ; le raisonnement demeure valide avec 7 %, 10 % ou tout autre ordre de grandeur.

Aucun commentaire: