mercredi 4 juin 2025

Intégrateurs de solutions linguistiques et autorité épistémique

Ceci est un premier billet, consacré aux intégrateurs de solutions linguistiques. Un deuxième suivra, sur les plateformes dédiées aux technologies linguistiques.

*

Selon la définition originale donnée par Slator, les intégrateurs de solutions linguistiques (LSI en anglais), idéalement destinés à remplacer les fournisseurs de services linguistiques (les fameux LSP), sont censés orchestrer la mise en commun de technologies linguistiques, d'intelligence artificielle et d’expertise humaine afin de fournir des solutions de contenu multilingue adaptées aux exigences de leurs clients.

Pour l'heure, tout juste une semaine après leur acte de naissance, les LSI (Language Solutions Integrators) sont encore totalement interchangeables avec les LSP (Language Service Providers), et il n'y a aucune raison objective pour laquelle les petits derniers devraient faire un meilleur travail que les premiers. Changer d'appellation est purement et simplement un acte de volonté qui, à lui seul, ne suffit certes pas pour faire évoluer une industrie !

Il faut d'abord comprendre si l’implantation du sigle et du concept - à savoir leur capacité à s’ancrer durablement dans l’usage - prendra et correspondra à une réalité sous-jacente : combien des actuels LSP jugent-ils ce changement pertinent et partagent-ils le constat qu'ils sont devenus obsolètes, combien d'intervenants du secteur des langues et de la traduction adopteront-ils l'idée d'un tel nouvel acteur - ou d'un autre - sur le marché et d'un repositionnement majeur indispensable pour refléter les avancées technologiques en cours ?

Du reste, pourquoi réinventer un secteur industriel ? D'emblée, on change un nom qui en donne une image vieillie, dépassée, pour sortir des clichés, voire redonner de la légitimité, refléter une réalité en pleine évolution, attirer de nouveaux talents (ou investisseurs), accompagner la diversification ou la mutation du métier et de ses modèles économiques, stimuler la curiosité, renforcer la communication stratégique, raconter un nouveau storytelling, fédérer une communauté autour d'un nouveau projet, etc., autant d'élements qui sont souvent la condition sine qua non pour redevenir audible, pertinent et crédible auprès de toutes les parties prenantes de l'écosystème.

Condition nécessaire mais pas suffisante, toutefois ! Il faudrait déjà faire consensus, à la fois sur le constat et sur les moyens de faire évoluer les choses dans le bon sens. Or entre les trois principales sociétés d'études de marché en traduction : Slator, CSA Research et Nimdzi Insights (ces deux dernières ayant été créées avec la contribution décisive de l'ami Renato Beninatto), les avis divergent sur comment nommer cette "nouvelle" réalité.

Pour Slator, nous l'avons vu :

Nous faisons nos adieux aux Fournisseurs de services linguistiques (LSP / Language Service Providers) et aux Systèmes de gestion des traductions (TMS / Translation Management Systems) - en vigueur depuis environ deux décennies mais désormais dépassés, vu les progrès considérables du secteur au cours des trois dernières années, notamment depuis l’avènement de l’IA, et, par conséquent, l'exigence d'opérer un repositionnement majeur pour refléter ces avancées -, et souhaitons la bienvenue aux Intégrateurs de solutions linguistiques (LSI / Language Solutions Integrators) et aux Plateformes techno-linguistiques (LTP / Language Technology Platforms).

Pour Nimdzi, l'évolution du contracted language professional (CLP) au massive multiple language services provider (MMLSP) reste quand même centrée autour des LSP :

Quant à CSA, nous nous dirigeons plutôt vers des Content-Focused Knowledge Processing Outsourcers (KPOs) et des Global Content Service Providers (GCSPs), où la notion de langue s'intègre dans celle de contenu global, mondialisé, à l'horizon 2030 :


Pour autant, le projet le plus ambitieux me semble celui de Slator (en supposant qu'ils auront la force de leurs ambitions...), vu qu'il se propose de relancer toute l'industrie par un rebranding global, en remplaçant les LSP (jugés obsolètes) (à raison selon moi) par les intégrateurs de solutions linguistiques (LSI) et en repositionnant l'industrie par rapport à l'intégration toujours plus poussée IA-expertise humaine. Nous verrons quelles seront leurs prochaines initiatives pour faire vivre leur idée, si elles sont suivies d'effets, et la façon dont elle sera accueillie et promue par les parties prenantes, dont les traducteurs eux-mêmes.

*

En attendant, une petite analyse du changement de nom s'impose :

  • « Fournisseur » devient « Intégrateur »
  • « Services linguistiques » devient « Solutions linguistiques »

Intégrateur

L'intégrateur de solutions linguistiques - voire le concepteur-intégrateur -, s'apparente davantage à un architecte plutôt qu'à un simple fournisseur de services linguistiques, en mettant l'accent sur le côté ingénierie et la portée stratégique de ce qu'il propose à son client, dont il évalue les besoins linguistiques complexes (multilinguisme, conformité, accessibilité, SEO, etc.), pour concevoir une solution sur mesure combinant technologies (TAO, TMS, IA), ressources humaines (traducteurs, réviseurs, spécialistes métiers) et workflows (publication, gestion documentaire, ...) ; puis il intègre ces éléments dans les systèmes du client (CMS, CRM, plateformes e-commerce, etc.) et pilote la performance linguistique en termes de qualité, cohérence, délais, budget, évolutivité...

Dans ce contexte, comme nous l'avons déjà vu pour la localisation, la traduction n'est qu'une brique - quand bien même essentielle - de l'ensemble de la solution offerte, mais une brique où l'intégration, à son tour, joue un rôle primordial. Et notamment l'intégration de l'IA tant dans le processus d'automatisation de la traduction que dans le contrôle qualité de la post-édition, d'une part, et l'intégration IA-expertise humaine de l'autre.

Lors d'une post-édition de traduction automatique pilotée par l’IA (AI-Driven MTPE), le processus 
combine les capacités de la traduction automatique (TA) avec des outils d’intelligence artificielle avancée, dans un flux de traduction hybride où l’IA génère une première version traduite automatiquement (éventuellement via un moteur IA entraîné sur un corpus spécifique), encore mieux si la TA s'applique à un contenu source ayant fait l'objet d'un prétraitement automatisé (normalisation, segmentation, extraction de balises et d’éléments non traduisibles, application de règles de pré-édition automatisées [regex, heuristiques métier]). 

Le rapport Nimdzi 2025 sur l'état de l'industrie des services linguistiques nous donne une indication de la manière dont les LSP utilisent actuellement l'IA :


  • 68% ont recours à des solutions génériques comme ChatGPT, Claude.ai, Gemini, Copilot ou autres
  • 55% se connectent à des grands modèles de langage (LLM) via des API
  • 51% utilisent des solutions d’IA générative sous forme de plug-ins et/ou intégrées nativement à leurs plateformes 
  • 29% font appel à des prestataires tiers pour des services pilotés par l’IA
  • 28% développent et personnalisent eux-mêmes des grands modèles de langage (LLM)
C'est ce dernier pourcentage qui m'interpelle : en gros, un quart des LSP développent déjà leurs propres LLM, un chiffre destiné à progresser notablement dans les mois et années à venir. 

*
À ce stade, dès lors qu'ils seraient opérés par les mêmes acteurs, je suis contraint de faire un parallèle entre TM (mémoires de traduction) et LLM (grands modèles de langage), deux technologies totalement différentes mais avec plusieurs points communs, dont un, primordial, le concept GIGO : Garbage In, Garbage Out ! En clair, aussi bien les TM que les LLM sont fortement dépendants du choix et de la qualité des données d'origine, car dans les deux cas, des données d’entrée erronées, biaisées ou mal structurées produisent des résultats erronés, biaisés ou mal structurés (en gros, c'est la traduction parlante et odorante de GIGO : si tu as de la merde en entrée, tu as de la merde en sortie).

Dès 1864, à la question « Si vous saisissez des chiffres erronés dans la machine, en obtiendrez-vous de bonnes réponses ? », Charles Babbage, polymathe et pionnier de l'informatique, s'étonnait face à une telle incompréhension logique de base : une machine, ou tout système formel, ne peut pas corriger une erreur conceptuelle ou factuelle dans les données d’entrée. Elle ne fait qu’exécuter un traitement déterministe sur ce qu’on lui donne. Ainsi, de façon intemporelle, il nous rappelle que ni l’intelligence artificielle ni aucun système algorithmique ne peut réparer une erreur conceptuelle humaine en amont. La qualité des sorties dépend directement de la qualité des entrées. (Source, p. 67 du PDF, Curious questions)

Cela fait des années que je travaille avec des TM fournies par les LSP, et je n'en ai jamais trouvé aucune d'une qualité irréprochable, c'est le moins qu'on puisse dire : incohérences à tous les niveaux... Donc si c'est cette "expertise" qu'ils comptent répliquer sur les LLM, on n'a pas le cul sorti des ronces ! 

Il y a un deuxième point commun, probablement encore plus important que le premier, auquel il est cependant étroitement lié : quelle valeur épistémique leur accorder !? Selon l’approche la plus courante dans la littérature philosophique contemporaine, l’adjectif « épistémique » désigne ce qui a trait à la représentation juste ou fidèle de la réalité

Tariq Krim nous rapporte dans sa récente conversation avec Meredith Whittaker, présidente de la fondation Signal, que celle-ci appelle à lutter contre « l’autorité épistémique » des plateformes qui prétendent en savoir plus que nous sur nous-mêmes, écrivent nos récits, fixent les cartes sur lesquelles se construisent nos vies...

Or reconnaître aux plateformes une autorité épistémique signifie qu’elles façonnent la perception de ce qui est crédible en jouant un rôle central dans la manière dont les gens accèdent au savoir (non pas parce qu’elles produisent directement du savoir, mais parce qu’elles en organisent la visibilité et la diffusion), trient ce qu’ils jugent vrai ou faux, légitiment certains discours plutôt que d'autres, etc.

Un rôle qui dépasse largement la simple mise en relation entre contenus et utilisateurs. En filtrant, hiérarchisant, promouvant ou invisibilisant certains discours, les plateformes redessinent les contours mêmes de la connaissance accessible. Elles deviennent des intermédiaires cognitifs, souvent invisibles, via des choix techniques (personnalisation, engagement, viralité) qui ont des effets profonds sur les personnes.

Toutefois cette "autorité" s'exerce sans les garanties traditionnelles du champ scientifique ou journalistique (collégialité, transparence des sources, responsabilité éditoriale), en étant déléguée à des algorithmes, des dynamiques de popularité, voire des politiques de modération opaques. Question : à quelles conditions une telle autorité peut-elle être légitime ? Par conséquent interroger l’autorité épistémique des plateformes, c’est poser une question politique autant qu’intellectuelle : qui décide de ce qui mérite d’être vu, su, cru ?

Maintenant, avec l’essor fulgurant de l’intelligence artificielle générative, les grandes plateformes technologiques ne sont plus seulement des hébergeurs ou des diffuseurs d’information : au moyen de modèles capables de générer des textes, des images, voire des raisonnements de plus en plus cohérents, elles deviennent des producteurs actifs de savoirs simulés.

Dans ce nouveau régime informationnel, leur "autorité épistémique" prend une dimension inédite : ce n’est plus uniquement l’accès au savoir qui est filtré, mais la forme même que prend la connaissance produite par les machines. Lorsqu’un assistant IA répond à une question, il ne cite pas toujours ses sources, et il n’est pas aisé de distinguer ce qui relève d’une synthèse fondée, d’un biais algorithmique ou d’une approximation.

Cette délégation implicite de la vérité à des systèmes opaques pose un problème majeur de responsabilité épistémique. Les plateformes ne revendiquent que partiellement la maîtrise du contenu généré par leurs modèles, tout en accumulant un pouvoir considérable sur ce que des millions d’utilisateurs vont percevoir comme vrai, probable ou crédible.

D'où le risque d’une normalisation silencieuse : plus les IA génératives sont perçues comme compétentes, plus leur autorité est acceptée sans examen critique. Cependant, cette autorité n’est ni neutre ni universelle : elle est modelée par les données d’entraînement, les objectifs commerciaux et les contraintes techniques de chaque plateforme. La boucle est bouclée : Garbage in, Garbage out...

Donc, appliquée à la traduction automatique à l'ère de l'IA, quelle peut-être l'autorité épistémique de plateformes traductionnelles ne se contentant plus d’outiller les traducteurs, mais d'en devenir les co-producteurs invisibles ? Un glissement qui soulève une question essentielle : à qui accorde-t-on la légitimité de dire ce que signifie un texte ? 

Autrement dit, qui détient l’autorité épistémique dans l’acte de traduction ? Traditionnellement, cette autorité appartenait au traducteur humain, fondée sur une expertise linguistique, culturelle et contextuelle. Mais à l'heure où les plateformes s’imposent comme des intermédiaires cognitifs puissants, capables de produire des traductions fluides, plausibles, souvent même acceptées sans vérification approfondie ?

L’usage massif de ces outils en entreprise, dans les administrations ou même chez les professionnels, témoigne d’un transfert progressif de confiance vers des systèmes opaques, entraînés sur des corpus inconnus, selon des logiques d’optimisation qui ne sont pas celles de la fidélité ou de la précision. Avec quelques risques sous-jacents :
  • Naturalisation des erreurs : une formulation plausible est perçue comme correcte
  • Effacement du traducteur : son rôle se réduit à un contrôle qualité subordonné, de plus en plus mal payé
  • Perte de réflexivité : les décisions traductives deviennent mécaniques, sans distance critique, ou si peu...
Or, la traduction n’est pas une simple opération technique. C’est un acte interprétatif, culturellement situé, politiquement chargé. Confier ce pouvoir à des machines — ou aux entités qui les opèrent — sans discussion, c’est accepter que la voix des plateformes redéfinisse silencieusement la norme du sens. Il est donc urgent de repenser la place du traducteur non pas comme un opérateur marginal de l’IA, mais comme un expert en position d’interroger ses productions, de les encadrer, de les corriger et de leur résister. 

Condition sine qua non pour que l’autorité épistémique redevienne un acte professionnel conscient, et non pas un automatisme vide de sens.

C'est ainsi que Slator prévoit l'Expert-in-the-Loop (EITL), où une approche semi-automatisée de production de contenu multilingue serait censée s’appuyer sur l’expertise humaine, introduite dans la boucle pour garantir un résultat final de haute qualité : très bien dans le principe, pratiquement totalement absente dans la réalité (pour l'instant du moins...) !

*

Solution

Dans l'esprit du rebranding de l'industrie voulu par Slator, « Solution » remplace « Service ». Pourquoi ?

Souvent employés de manière interchangeable dans divers secteurs, les deux termes ont pourtant des nuances différentes. La notion de "services" est moins large et plus connotée "exécution", là où une offre orientée "solutions" promet au client de résoudre ses problèmes à 360°. Il y a trois types de solutions :
  • solution 100% humaine (coûts désormais insoutenables)
  • solution 100% machine (entièrement automatisée, peu épistémique)
  • solution hybride homme+machine (curseur réglable à volonté)
Le repositionnement du secteur s'articule surtout autour de ce troisième axe, où, loin de remplacer l'humain, l'IA collabore avec lui (à moins que ce ne soit le contraire ;-). Je développerai cela dans un deuxième billet sur les plateformes dédiées aux technologies linguistiques.

P.S. Liens connexes :

Aucun commentaire: