Dans le premier billet de ce diptyque consacré aux ambitions de Slator, nous avons abordé les intégrateurs de solutions linguistiques et nous sommes interrogés sur quelle autorité épistémique leur accorder. Cette question "épistémique" est de première importance en ce qu'elle touche à un enjeu éthique et professionnel majeur dans les flux de traduction hybrides IA + expertise humaine : comment répartir autorité épistémique et responsabilité finale entre les parties prenantes (IA, LSP, traducteurs humains) ?
À première vue l'autorité épistémique (à savoir la capacité d’un acteur à être reconnu comme source légitime de savoir dans un domaine donné) réside principalement dans l’expertise humaine, et donc la responsabilité finale est portée soit par le LSP, soit par le traducteur, soit par les deux. En dépit de toute sa puissance, l'IA ne peut (encore) assumer seule ni l’autorité ni la responsabilité. Une IA ne comprend pas ce qu’elle traduit : elle fonctionne par prédiction, sans intention ni conscience contextuelle. Elle peut fournir un contenu plausible mais erroné ou biaisé.
En d'autres termes, qui porte réellement la charge morale, légale ou professionnelle du contenu livré ? Qui est comptable d’une erreur (juridique, technique, communicationnelle) ? Dans le cas des plateformes techno-linguistiques, le problème ne se pose pas, puisque selon Slator, elles ne fournissent aucun service de vérification ou d'amélioration de la qualité linguistique, ni ne garantissent la qualité du contenu produit. Ce rôle incombe aux utilisateurs ou aux prestataires externes impliqués.
Nous faisons nos adieux aux Fournisseurs de services linguistiques (LSP / Language Service Providers) et aux Systèmes de gestion des traductions (TMS / Translation Management Systems) (...), et souhaitons la bienvenue aux Intégrateurs de solutions linguistiques(LSI / Language Solutions Integrators) et aux Plateformes techno-linguistiques (LTP / Language Technology Platforms).
Sous-entendu : les LSI remplacent les LSP, et les LTP les TMS. Pour autant TMS et LTP ne sont pas interchangeables. Tandis que les systèmes de gestion des traductions étaient - sont - internes aux LSP, les plateformes techno-linguistiques fonctionnent en mode SaaS, ou mieux, PaaS, Platform as a Service, une espèce de boîte à outils à laquelle vous vous abonnez et utilisez comme bon vous semble, tout en gardant la main et la responsabilité de ce que vous produisez avec.
De même, si vous souhaitez analyser les sentiments de 10 000 avis clients multilingues ou résumer des documents légaux et les classifier par type, vous ne le ferez pas avec un TMS, mais avec une LTP si. En outre, les deux sont interopérables, par exemple en connectant un TMS à une LTP, ou en soumettant les données d'un TMS (mémoires, glossaires, etc.) à une LTP pour entraîner un grand modèle de langage (LLM) sectoriel.
C'est l'une des raisons pour lesquelles je pense que le quart actuel des LSP qui développent et personnalisent déjà leurs propres LLM (28% en 2025 selon Nimdzi), est destiné à augmenter notablement dans les mois et années à venir. L'IA révolutionne vraiment TOUT, à TOUS les niveaux !
Selon Benjamin Faes, CEO de RWS, cette révolution du contenu multilingue se traduit par le fait qu'en seulement 18 mois, avec l'émergence de l'IA générative, nous avons produit une quantité de contenu équivalente à celle créée sur Internet au cours des 30 dernières années ! Qui était déjà exponentielle par rapport à l'ensemble du contenu créé durant TOUT le passé de l'humanité...
D'où les difficultés des entreprises, qui peinent à suivre le rythme des chamboulements en cours et à prendre les bonnes décisions sur la manière de générer leur contenu, les étapes à automatiser et la manière d’interagir avec leurs publics. Exemple : 20 % des utilisateurs d’Internet sont chinois, mais seul 1 % du contenu en ligne est en chinois.
Toutefois, le passage qui me frappe le plus, dans l'intervention de Benjamin Faes, est celui sur la nécessité de faire évoluer le langage (RWS is prompted to adopt some new terminology) ! RWS n'est plus un LSP, mais un partenaire de solutions de contenu (content solution partner), pour générer un meilleur contenu, plus intelligent et évolutif, pour transformer le contenu existant afin qu'il résonne et se connecte avec les publics du monde entier, et enfin pour le protéger, de même que les données et les idées. Là encore, "solutions"...
Partie qui me touche de plus près :
Formerly known as translators(!), these professionals are now referred to as “language specialists” or “linguistic specialists,” which Faes said better represents the work they do, which includes reading, changing, and adapting content.
Je traduis :
Anciennement connus sous le nom de traducteurs(!!!), ces professionnels sont désormais des « spécialistes de la langue », des « experts linguistes », ce qui reflète mieux leur travail, qui comprend la lecture, la modification et l’adaptation de contenu.
Petit bémol : promouvoir leur qualification, c'est bien, mettre à jour leur rémunération (qui a déjà été divisée par 3 ou 4...) ce serait mieux ! Et cohérent...
D'autant plus que la langue est l'origine du contenu, selon Faes, qui conclut ainsi : « It is not the translation that’s important. It’s the connection that we make around the globe. »
Que j'adapterais ainsi : « L’essentiel n’est pas la traduction, mais les liens que nous créons partout dans le monde, les ponts que nous construisons entre les langues et les cultures. »
*
Après Phrase, RWS est le deuxième grand groupe qui reprend les idées de Slator et met en avant la nécessité de refondre le contenu et le langage en surfant sur l'onde puissante de l'IA. Probablement à suivre...
Selon la définition originale donnée par Slator, les intégrateurs de solutions linguistiques (LSI en anglais), idéalement destinés à remplacer les fournisseurs de services linguistiques (les fameux LSP), sont censés orchestrer la mise en commun de technologies linguistiques, d'intelligence artificielle et d’expertise humaine afin de fournir des solutions de contenu multilingue adaptées aux exigences de leurs clients.
Pour l'heure, tout juste une semaine après leur acte de naissance, les LSI (Language Solutions Integrators) sont encore totalement interchangeables avec les LSP (Language Service Providers), et il n'y a aucune raison objective pour laquelle les petits derniers devraient faire un meilleur travail que les premiers. Changer d'appellation est purement et simplement un acte de volonté qui, à lui seul, ne suffit certes pas pour faire évoluer une industrie !
Il faut d'abord comprendre si l’implantation du sigle et du concept - à savoir leur capacité à s’ancrer durablement dans l’usage - prendra et correspondra à une réalité sous-jacente : combien des actuels LSP jugent-ils ce changement pertinent et partagent-ils le constat qu'ils sont devenus obsolètes, combien d'intervenants du secteur des langues et de la traduction adopteront-ils l'idée d'un tel nouvel acteur - ou d'un autre - sur le marché et d'un repositionnement majeur indispensable pour refléter les avancées technologiques en cours ?
Du reste, pourquoi réinventer un secteur industriel ? D'emblée, on change un nom qui en donne une image vieillie, dépassée, pour sortir des clichés, voire redonner de la légitimité, refléter une réalité en pleine évolution, attirer de nouveaux talents (ou investisseurs), accompagner la diversification ou la mutation du métier et de ses modèles économiques, stimuler la curiosité, renforcer la communication stratégique, raconter un nouveau storytelling, fédérer une communauté autour d'un nouveau projet, etc., autant d'élements qui sont souvent la condition sine qua non pour redevenir audible, pertinent et crédible auprès de toutes les parties prenantes de l'écosystème.
Condition nécessaire mais pas suffisante, toutefois ! Il faudrait déjà faire consensus, à la fois sur le constat et sur les moyens de faire évoluer les choses dans le bon sens. Or entre les trois principales sociétés d'études de marché en traduction : Slator, CSA Research et Nimdzi Insights (ces deux dernières ayant été créées avec la contribution décisive de l'ami Renato Beninatto), les avis divergent sur comment nommer cette "nouvelle" réalité.
Nous faisons nos adieux aux Fournisseurs de services linguistiques(LSP / Language Service Providers) et aux Systèmes de gestion des traductions(TMS / Translation Management Systems) - en vigueur depuis environ deux décennies mais désormais dépassés, vu les progrès considérables du secteur au cours des trois dernières années, notamment depuis l’avènement de l’IA, et, par conséquent, l'exigence d'opérer un repositionnement majeur pour refléter ces avancées -, et souhaitons la bienvenue aux Intégrateurs de solutions linguistiques(LSI / Language Solutions Integrators) et aux Plateformes techno-linguistiques (LTP / Language Technology Platforms).
Pour Nimdzi, l'évolution du contracted language professional (CLP) au massive multiple language services provider (MMLSP) reste quand même centrée autour des LSP :
Quant à CSA, nous nous dirigeons plutôt vers des Content-Focused Knowledge Processing Outsourcers (KPOs) et des Global Content Service Providers (GCSPs), où la notion de langue s'intègre dans celle de contenu global, mondialisé, à l'horizon 2030 :
Pour autant, le projet le plus ambitieux me semble celui de Slator (en supposant qu'ils auront la force de leurs ambitions...), vu qu'il se propose de relancer toute l'industrie par un rebranding global, en remplaçant les LSP (jugés obsolètes) (à raison selon moi) par les intégrateurs de solutions linguistiques (LSI) et en repositionnant l'industrie par rapport à l'intégration toujours plus poussée IA-expertise humaine. Nous verrons quelles seront leurs prochaines initiatives pour faire vivre leur idée, si elles sont suivies d'effets, et la façon dont elle sera accueillie et promue par les parties prenantes, dont les traducteurs eux-mêmes.
*
En attendant, une petite analyse du changement de nom s'impose :
« Fournisseur » devient « Intégrateur »
« Services linguistiques » devient « Solutions linguistiques »
Intégrateur
L'intégrateur de solutions linguistiques - voire le concepteur-intégrateur -, s'apparente davantage à un architecte plutôt qu'à un simple fournisseur de services linguistiques, en mettant l'accent sur le côté ingénierie et la portée stratégique de ce qu'il propose à son client, dont il évalue les besoins linguistiques complexes (multilinguisme, conformité, accessibilité, SEO, etc.), pour concevoir une solution sur mesure combinant technologies (TAO, TMS, IA), ressources humaines (traducteurs, réviseurs, spécialistes métiers) et workflows (publication, gestion documentaire, ...) ; puis il intègre ces éléments dans les systèmes du client (CMS, CRM, plateformes e-commerce, etc.) et pilote la performance linguistique en termes de qualité, cohérence, délais, budget, évolutivité...
Dans ce contexte, comme nous l'avons déjà vu pour la localisation, la traduction n'est qu'une brique - quand bien même essentielle - de l'ensemble de la solution offerte, mais une brique où l'intégration, à son tour, joue un rôle primordial. Et notamment l'intégration de l'IA tant dans le processus d'automatisation de la traduction que dans le contrôle qualité de la post-édition, d'une part, et l'intégration IA-expertise humaine de l'autre.
Lors d'une post-édition de traduction automatique pilotée par l’IA (AI-Driven MTPE), le processus
combine les capacités de la traduction automatique (TA) avec des outils d’intelligence artificielle avancée, dans un flux de traduction hybride où l’IA génère une première version traduite automatiquement (éventuellement via un moteur IA entraîné sur un corpus spécifique), encore mieux si la TA s'applique à un contenu source ayant fait l'objet d'un prétraitement automatisé (normalisation, segmentation, extraction de balises et d’éléments non traduisibles, application de règles de pré-édition automatisées [regex, heuristiques métier]).
Le rapport Nimdzi 2025 sur l'état de l'industrie des services linguistiques nous donne une indication de la manière dont les LSP utilisent actuellement l'IA :
68% ont recours à des solutions génériques comme ChatGPT, Claude.ai, Gemini, Copilot ou autres
55% se connectent à des grands modèles de langage (LLM) via des API
51% utilisent des solutions d’IA générative sous forme de plug-ins et/ou intégrées nativement à leurs plateformes
29% font appel à des prestataires tiers pour des services pilotés par l’IA
28% développent et personnalisent eux-mêmes des grands modèles de langage (LLM)
C'est ce dernier pourcentage qui m'interpelle : en gros, un quart des LSP développent déjà leurs propres LLM, un chiffre destiné à progresser notablement dans les mois et années à venir.
*
À ce stade, dès lors qu'ils seraient opérés par les mêmes acteurs, je suis contraint de faire un parallèle entre TM (mémoires de traduction) et LLM (grands modèles de langage), deux technologies totalement différentes mais avec plusieurs points communs, dont un, primordial, le concept GIGO : Garbage In, Garbage Out ! En clair, aussi bien les TM que les LLM sont fortement dépendants du choix et de la qualité des données d'origine, car dans les deux cas, des données d’entrée erronées, biaisées ou mal structurées produisent des résultats erronés, biaisés ou mal structurés (en gros, c'est la traduction parlante et odorante de GIGO : si tu as de la merde en entrée, tu as de la merde en sortie).
Dès 1864, à la question « Si vous saisissez des chiffres erronés dans la machine, en obtiendrez-vous de bonnes réponses ? », Charles Babbage, polymathe et pionnier de l'informatique, s'étonnait face à une telle incompréhension logique de base : une machine, ou tout système formel, ne peut pas corriger une erreur conceptuelle ou factuelle dans les données d’entrée. Elle ne fait qu’exécuter un traitement déterministe sur ce qu’on lui donne. Ainsi, de façon intemporelle, il nous rappelle que ni l’intelligence artificielle ni aucun système algorithmique ne peut réparer une erreur conceptuelle humaine en amont. La qualité des sorties dépend directement de la qualité des entrées. (Source, p. 67 du PDF, Curious questions)
Cela fait des années que je travaille avec des TM fournies par les LSP, et je n'en ai jamais trouvé aucune d'une qualité irréprochable, c'est le moins qu'on puisse dire : incohérences à tous les niveaux... Donc si c'est cette "expertise" qu'ils comptent répliquer sur les LLM, on n'a pas le cul sorti des ronces !
Il y a un deuxième point commun, probablement encore plus important que le premier, auquel il est cependant étroitement lié : quelle valeur épistémique leur accorder !? Selon l’approche la plus courante dans la littérature philosophique contemporaine, l’adjectif « épistémique » désigne ce qui a trait à la représentation juste ou fidèle de la réalité.
Tariq Krim nous rapporte dans sa récente conversation avec Meredith Whittaker, présidente de la fondation Signal, que celle-ci appelle à lutter contre « l’autorité épistémique » des plateformes qui prétendent en savoir plus que nous sur nous-mêmes, écrivent nos récits, fixent les cartes sur lesquelles se construisent nos vies...
Or reconnaître aux plateformes une autorité épistémique signifie qu’elles façonnent la perception de ce qui est crédible en jouant un rôle central dans la manière dont les gens accèdent au savoir (non pas parce qu’elles produisent directement du savoir, mais parce qu’elles en organisent la visibilité et la diffusion), trient ce qu’ils jugent vrai ou faux, légitiment certains discours plutôt que d'autres, etc.
Un rôle qui dépasse largement la simple mise en relation entre contenus et utilisateurs. En filtrant, hiérarchisant, promouvant ou invisibilisant certains discours, les plateformes redessinent les contours mêmes de la connaissance accessible. Elles deviennent des intermédiaires cognitifs, souvent invisibles, via des choix techniques (personnalisation, engagement, viralité) qui ont des effets profonds sur les personnes.
Toutefois cette "autorité" s'exerce sans les garanties traditionnelles du champ scientifique ou journalistique (collégialité, transparence des sources, responsabilité éditoriale), en étant déléguée à des algorithmes, des dynamiques de popularité, voire des politiques de modération opaques. Question : à quelles conditions une telle autorité peut-elle être légitime ? Par conséquent interroger l’autorité épistémique des plateformes, c’est poser une question politique autant qu’intellectuelle : qui décide de ce qui mérite d’être vu, su, cru ?
Maintenant, avec l’essor fulgurant de l’intelligence artificielle générative, les grandes plateformes technologiques ne sont plus seulement des hébergeurs ou des diffuseurs d’information : au moyen de modèles capables de générer des textes, des images, voire des raisonnements de plus en plus cohérents, elles deviennent des producteurs actifs de savoirs simulés.
Dans ce nouveau régime informationnel, leur "autorité épistémique" prend une dimension inédite : ce n’est plus uniquement l’accès au savoir qui est filtré, mais la forme même que prend la connaissance produite par les machines. Lorsqu’un assistant IA répond à une question, il ne cite pas toujours ses sources, et il n’est pas aisé de distinguer ce qui relève d’une synthèse fondée, d’un biais algorithmique ou d’une approximation.
Cette délégation implicite de la vérité à des systèmes opaques pose un problème majeur de responsabilité épistémique. Les plateformes ne revendiquent que partiellement la maîtrise du contenu généré par leurs modèles, tout en accumulant un pouvoir considérable sur ce que des millions d’utilisateurs vont percevoir comme vrai, probable ou crédible.
D'où le risque d’une normalisation silencieuse : plus les IA génératives sont perçues comme compétentes, plus leur autorité est acceptée sans examen critique. Cependant, cette autorité n’est ni neutre ni universelle : elle est modelée par les données d’entraînement, les objectifs commerciaux et les contraintes techniques de chaque plateforme. La boucle est bouclée : Garbage in, Garbage out...
Donc, appliquée à la traduction automatique à l'ère de l'IA, quelle peut-être l'autorité épistémique de plateformes traductionnelles ne se contentant plus d’outiller les traducteurs, mais d'en devenir les co-producteurs invisibles ? Un glissement qui soulève une question essentielle : à qui accorde-t-on la légitimité de dire ce que signifie un texte ?
Autrement dit, qui détient l’autorité épistémique dans l’acte de traduction ? Traditionnellement, cette autorité appartenait au traducteur humain, fondée sur une expertise linguistique, culturelle et contextuelle. Mais à l'heure où les plateformes s’imposent comme des intermédiaires cognitifs puissants, capables de produire des traductions fluides, plausibles, souvent même acceptées sans vérification approfondie ?
L’usage massif de ces outils en entreprise, dans les administrations ou même chez les professionnels, témoigne d’un transfert progressif de confiance vers des systèmes opaques, entraînés sur des corpus inconnus, selon des logiques d’optimisation qui ne sont pas celles de la fidélité ou de la précision. Avec quelques risques sous-jacents :
Naturalisation des erreurs : une formulation plausible est perçue comme correcte
Effacement du traducteur : son rôle se réduit à un contrôle qualité subordonné, de plus en plus mal payé
Perte de réflexivité : les décisions traductives deviennent mécaniques, sans distance critique, ou si peu...
Or, la traduction n’est pas une simple opération technique. C’est un acte interprétatif, culturellement situé, politiquement chargé. Confier ce pouvoir à des machines — ou aux entités qui les opèrent — sans discussion, c’est accepter que la voix des plateformes redéfinisse silencieusement la norme du sens. Il est donc urgent de repenser la place du traducteur non pas comme un opérateur marginal de l’IA, mais comme un expert en position d’interroger ses productions, de les encadrer, de les corriger et de leur résister.
Condition sine qua non pour que l’autorité épistémique redevienne un acte professionnel conscient, et non pas un automatisme vide de sens.
C'est ainsi que Slator prévoit l'Expert-in-the-Loop (EITL), où une approche semi-automatisée de production de contenu multilingue serait censée s’appuyer sur l’expertise humaine, introduite dans la boucle pour garantir un résultat final de haute qualité : très bien dans le principe, pratiquement totalement absente dans la réalité (pour l'instant du moins...) !
*
Solution
Dans l'esprit du rebranding de l'industrie voulu par Slator, « Solution » remplace « Service ». Pourquoi ?
Souvent employés de manière interchangeable dans divers secteurs, les deux termes ont pourtant des nuances différentes. La notion de "services" est moins large et plus connotée "exécution", là où une offre orientée "solutions" promet au client de résoudre ses problèmes à 360°. Il y a trois types de solutions :
solution 100% machine (entièrement automatisée, peu épistémique)
solution hybride homme+machine (curseur réglable à volonté)
Le repositionnement du secteur s'articule surtout autour de ce troisième axe, où, loin de remplacer l'humain, l'IA collabore avec lui (à moins que ce ne soit le contraire ;-). Je développerai cela dans un deuxième billet sur les plateformes dédiées aux technologies linguistiques.
Ce billet est le P.S. aux 4 blocs sur l'intelligence artificielle, durant la rédaction desquels je n'ai cessé un seul instant de m'interroger sur ce qu'est véritablement l'IA et sur comment elle fonctionne. Je vais tenter de fournir ici des réponses simples à ces questions compliquées.
En général, quand on ne connaît pas le sens d'un terme, on ouvre un dictionnaire. Au hasard, le Robert :
Intelligence artificielle (IA)
ensemble des théories et des techniques développant des programmes informatiques complexes capables de simuler certains traits de l'intelligence humaine (raisonnement, apprentissage…).
Intelligence artificielle générative, capable, à partir de grands volumes de données (textes, sons, images…), de dégager des modèles et d'en générer de nouveaux, ou d'améliorer les modèles existants.
En clair, l'IA développe des systèmes intelligents capables de fonctionner en mode autonome et d'interagir avec leur environnement, en se basant sur trois piliers conceptuels : penser (la pensée, l'analyse et le raisonnement), savoir (le savoir, l'apprentissage, la mémorisation et la gestion des données) et agir (l'action, l'interaction, l'exécution, l'application concrète). Ces trois capacités essentielles forment une boucle : le savoir alimente la pensée, la pensée guide l’action, tandis que les retours d’expérience (rétroaction) vont enrichir à leur tour le savoir.
Chacune de ces capacités, qui simule diverses facettes de l’intelligence et de la cognition humaines et s'en inspire, se traduit par des mécanismes algorithmiques, des modèles mathématiques et autres techniques spécifiques.
Dans mon deuxième bloc sur l'IA, j'ai inséré un diagramme simple présentant le fonctionnement d'une intelligence artificielle en quatre étapes, qui se superposent aux 3 piliers conceptuels et à la boucle de rétroaction :
1. Analyse de grandes quantités de données saisies (penser)
L'IA n'a aucune capacité de "penser" par elle-même si elle ne se fonde en amont sur des données pour l'alimenter et la former. Lorsqu'on parle d'intelligence pour une machine, un système ou autre, il faut avant tout évoquer une aptitude à comprendre, toute « machine intelligente » dépendant de facto d'une programmation pointue, permettant d’effectuer des tâches préformatées... Plus la programmation est élaborée, plus la machine résulte « intelligente »...
Les données sont le carburant de l'IA, qui s'en nourrit voracement, vu les quantités énormes dont elle a constamment besoin pour apprendre, en les traitant et les organisant... Elles sont essentielles pour entraîner les modèles, sans données l'IA ne "pense" pas ! En revanche, plus elle en a, plus elle est capable de "penser". Les volumes nécessaires peuvent aller de 1 Go à 100 Go pour des modèles intermédiaires, voire de 100 To à plusieurs Po (à la louche, 1 Pétaoctet = 1 milliard de livres...) pour les grands modèles de langage (LLM / Large Language Model).
Dans un premier temps, la collecte des données consiste à rassembler différentes informations (textes, images, sons, etc., bien que ce billet se limite au seul volet textuel). Et qui dit texte (et mots écrits) dit traitement du langage naturel (NLP) multilingue, pour permettre à l’IA de comprendre et d'interagir ensuite, en combinant, entre autres, analyse grammaticale, apprentissage profond (deep learning) sur de vastes corpus, reconnaissance du contexte et des intentions. Toutefois, l'ensemble de ces données provenant de sources diverses, elles sont toujours multi-formats, non structurées, d'où la nécessité de les "tokéniser" en vue de standardiser un corpus.
En sécurité informatique, la tokénisation est le procédé permettant de remplacer une donnée critique par un élément équivalent (un token, ou jeton) qui n’aura aucune valeur intrinsèque ou signification exploitable une fois sortie du système, d'où la protection des données (sensibles) d'une entreprise. En intelligence artificielle, tokéniser consiste à décomposer le texte en unités/entités plus petites (tokens, ou symboles) : selon la méthode utilisée, il peut s'agir par exemple de mots, de sous-mots ou de caractères. Prenez le mot "anticonstitutionnellement" :
tokénisé par mot : "anticonstitutionnellement" --> 1 mot = 1 token
tokénisé par caractères : "a" "n" "t" "i" "c" "o" "n" "s" "t" "i" "t" "u" "t" "i" "o" "n" "n" "e" "l" "l" "e" "m" "e" "n" "t" --> 25 caractères = 25 tokens
Chaque token est encodé ensuite (en une valeur numérique, un identifiant unique) pour que le modèle d'IA puisse le traiter. La tokénisation par caractères est plus flexible, plus simple à mettre en œuvre (mais plus gourmande en ressources, et donc plus coûteuse), sans règles complexes, elle permet de capturer la structure des mots à un niveau plus granulaire et de gérer tous les langages, puisque tous utilisent des caractères (idéal pour les modèles multilingues, les langues peu représentées, les mots inconnus).
Par contre il peut y avoir une perte de structure sémantique, elle peut être moins efficace pour saisir le sens global. Une option pour l'utilisateur, selon ses besoins spécifiques, pourrait donc être de retenir une approche hybride davantage équilibrée, combinant caractères et mots (ou sous-mots). Quoi qu'il en soit, la tokénisation est un processus clé permettant de convertir le langage humain en un format exploitable par les machines.
Quant à standardiser le corpus, cela signifie transformer
les données brutes d'entrée d'un modèle d'IA pour qu'elles aient des
caractéristiques similaires et cohérentes. C'est une étape cruciale du prétraitement des données, avant d'entraîner le modèle. Entraîner le modèle revient à analyser les données pour y identifier des motifs et des relations.
Les motifs (patterns, en anglais) sont des "régularités", des caractéristiques récurrentes dans les données. En phase d'apprentissage, l’IA extrait ces motifs en s’entraînant sur de nombreux exemples pour pouvoir ensuite classer ou prédire correctement de nouveaux cas, ce qu'on appelle l'inférence. La compréhension des relations contextuelles, entre mots d'une séquence, y compris éloignés, entre phrases, sémantiques ou syntaxiques complexes est cruciale pour une IA, notamment pour mieux comprendre comment répondre aux questions qui lui sont posées.
C'est la capacité de raisonner de manière multimodale (en intégrant des informations provenant de différentes modalités sensorielles, textes, images, sons, etc.), causale et flexible d'une IA, qui ne peut pas aller au-delà des corrélations apprises à travers les données. Tout au moins jusqu'à présent. Car avec l'arrivée en force des agents ou du protocole A2A (Agent to Agent) de Google et du protocole MCP d'Anthropic, les intelligences artificielles vont s'autonomiser toujours davantage, en communiquant et en collaborant de façon fluide directement entre agents, sans plus passer par aucun dialogue avec des opérateurs "humains". Ce qui soulève quelques problèmes éthiques, hors du périmètre de ce billet.
Le raisonnement conduit à la prise de décisions, logiques et non hallucinées espérons-le, à la résolution des problèmes, aux inférences (prédictions sur de nouvelles données en utilisant les connaissances acquises lors de l'entraînement du modèle), à la planification d'actions futures, etc. Tout cela grâce aux algorithmes... [Début]
*
2. Détection des constantes au moyen d'algorithmes (savoir)
Toute IA se fonde sur des algorithmes et des modèles mathématiques sophistiqués. La différence entre les deux est que le modèle est le résultat ou la structure mathématique qui encapsule la connaissance apprise à partir des données, tandis que l’algorithme est le processus qui permet d’obtenir ce modèle et de l’utiliser. Selon la thèse de Church Turing, s'il existe un algorithme pour résoudre un problème, un ordinateur peut être programmé pour implémenter cet algorithme :
l'algorithme consiste en un ensemble fini d'instructions simples et précises qui sont décrites avec un nombre limité de symboles ;
l'algorithme doit toujours produire le résultat en un nombre fini d'étapes ;
l'algorithme peut en principe être suivi par un humain avec seulement du papier et un crayon ;
l'exécution de l'algorithme ne requiert pas d'intelligence de l'humain sauf celle qui est nécessaire pour comprendre et exécuter les instructions.
Vous pouvez avoir jusqu'à une cinquantaine d'algorithmes différents pour construire et entraîner un grand modèle de langage, selon la complexité du modèle et de l’application. Ces algorithmes incluent le prétraitement (tokenisation, normalisation), l’architecture (Transformers), l’optimisation (Adam), la régularisation (dropout), l’évaluation (validation croisée), et le post-traitement (quantification, fine-tuning). Ici mon but n'est pas de rentrer dans les détails techniques (nous sommes dans de la très haute ingénierie), mais juste de donner une idée de la complexité du processus.
Et lorsque le modèle d'IA compte des centaines de milliards de paramètres et plusieurs milliards de mots (l'entraînement de GPT-3 a porté sur 175 milliards de paramètres, et GPT-4 entraîne son modèle sur des milliards de textes - sans divulguer exactement la quantité ni combien de paramètres - pour prédire le mot suivant...), qu'ils soient généraux ou spécialisés, les corpus leur servant d'entraînement sont proportionnés :
C4 (Colossal Clean Crawled Corpus), de Google, un corpus massif basé sur des données extraites du Web, nettoyées, représente environ 750 Go de texte brut, soit plusieurs centaines de milliards de mots, y compris en versions multilingues (mC4).
arXiv a des dizaines de milliards de mots, environ 1,5 million d’articles scientifiques en libre accès (principalement informatique, physique, mathématiques)
Les datasets (ou jeux de données) de Twitter (désormais X) comptent des milliards de messages
CC-100 : un corpus massif issu de Common Crawl, couvrant une centaine de langues avec 294,58 milliards de tokens, idéal pour les tâches multilingues.
OPUS (Open Parallel Corpus), qui collecte des corpus parallèles pour la traduction (incluant des sous-titres, des documents officiels, des textes littéraires) rassemble des milliards de paires de phrases, alignées, dans plus de 100 langues.
Quant aux milliards de paramètres au cœur des performances des IA modernes, avec des perspectives d’optimisation croissantes et rapides, il s'agit pour le plus des poids numériques (et des biais) en virgule flottante, stockés dans des matrices au sein des couches d’un réseau neuronal (comme un Transformer). Ils encodent les connaissances apprises à partir des données massives et sont essentiels pour l'apprentissage du réseau et la modélisation des fonctions complexes.
À titre d'anecdote (!), l'IA chinoise Wu Dao 2.0, la plus puissante à ce jour, tourne avec 1750 milliards de paramètres... Ceci n'est qu'un bref exemple de fonctionnement et d'une partie des ressources nécessaires, qui suffit cependant à donner un aperçu de l'énormité de la chose. Qui doit forcément reposer sur des puissances de calcul à la hauteur !
Dans mon précédent billet sur « La quatrième révolution civilisationnelle : l'informatique quantique », j'indiquais que l'informatique "classique" (très haute performance, quand même) était déjà en mesure d'effectuer 125 millions de milliards d'opérations en virgule flottante par seconde (125 pétaflops) de performances maximales grâce à 4000 milliards de transistors et 900 000 cœurs de calcul optimisés pour l'IA :
Le système CS-3 est conçu pour entraîner des modèles de langage 10 fois plus grands que GPT-4 et Gemini, pour ne citer qu'eux. Il s'appuie pour cela sur un important système de mémoire pouvant atteindre 1,2 pétaoctet. Par ailleurs, 24 000 milliards de modèles de paramètres peuvent être stockés dans un seul espace mémoire logique sans partitionnement ni remaniement, assure Cerebras. (...) Les configurations compactes à quatre systèmes permettent d'affiner des modèles de type 70B en une journée, tandis qu'à grande échelle, en utilisant 2048 systèmes, Llama 70B peut, par exemple, être entraîné à partir de rien en une seule journée.
(Source : L'Usine digitale). Où 70B signifie 70 milliards de paramètres...
Évidemment, plus les capacités des processeurs sont élevées, plus ces milliards de paramètres et d'opérations ne prennent que quelques secondes pour être traités ! Les processeurs matures actuellement utilisés, tels que GPU (jusqu’à 30 téraFLOPS pour un NVIDIA A100) ou TPU (180 téraFLOPS par module TPU), seront largement inférieurs aux nouveaux processeurs photoniques lorsque ceux-ci auront atteint leur maturité, ce qui n'est pas encore le cas, mais les résultats annoncés sont ... (je vous laisse remplir avec le qualificatif qui convient !) :
Le processeur photonique peut fonctionner (avec des erreurs intermittentes) à une fréquence d’horloge de 2 GHz, soit 262 000 milliards d’opérations adaptatives en virgule flottante par blocs de 16 bits – ABFP16 – par seconde.
Ces interactions sont incroyablement complexes et peuvent prendre de nombreuses formes différentes, ce qui signifie qu'une prédiction précise du comportement d'une molécule sur la base de sa structure nécessite d'énormes quantités de calculs.
Il est impossible de le faire manuellement, et l'ampleur du problème est également trop importante pour les ordinateurs classiques actuels. En fait, on estime que la modélisation d'une molécule de seulement 70 atomes prendrait jusqu'à 13 milliards d'années à un ordinateur classique. (...)
Les ordinateurs quantiques ont toutefois le potentiel de résoudre un jour le problème de la simulation moléculaire en quelques minutes.
Avec l'informatique classique, nous avons déjà une idée des délais de développement d'un nouveau médicament (entre 12 et 15 ans), et de l'ambition des grands laboratoires de réduire cette période de moitié grâce à l'IA. Donc, dans l'attente de la suprématie quantique, et bien qu'en partie le quantique soit déjàopérationnel, contentons-nous de ce qui existe actuellement, et ce n'est pas peu ! 😀
L'IA agentique est déjà réalité, et dans la capacité d'interaction de l'IA avec son environnement et d'exécuter des actions physiques ou numériques en vue d'atteindre divers objectifs, on pense souvent au contrôle de la robotique, aux systèmes et véhicules autonomes (voitures, drones, taxis...), ou encore à l'automatisation via des agents logiciels. C'est ce dernier volet que je souhaite aborder ici.
Où l'on entend par automatisation les programmes et entités logicielles, autonomes (à savoir prenant des décisions sans intervention) ou semi-autonomes (qui nécessitent la supervision d'un opérateur), souvent basés sur des LLM, qui exécutent des tâches complexes (traduction multilingue, analyse scientifique, gestion industrielle) avec un minimum d’intervention humaine :
La prise de décision permet de choisir l'action optimale en fonction de l'objectif fixé
L'interaction physique contrôle les dispositifs pour effectuer des tâches en réel
L'interaction numérique gère les interfaces utilisateur, les robots conversationnels ou les systèmes automatisés
L'adaptabilité permet d'ajuster les actions en temps réel selon les changements dans l’environnement
La capacité d'action d'une IA implique donc une prise de décisions basées sur sa "pensée" et son "savoir", chaque action lui permettant en retour d'obtenir davantage d'informations sur l'environnement, pour mieux réagir aux nouvelles situations et adapter ses actions selon les changements ou les objectifs, y compris l'apprentissage de nouvelles tâches et l'ajustement en temps réel de ses stratégies. Par conséquent les résultats génèrent au fur et à mesure de nouvelles connaissances, dans une boucle de rétroactions et d'adaptation. [Début]
*
4. Apprentissage et amélioration des performances (rétroagir)
Une IA robuste et polyvalente est capable d'équilibrer ces trois dimensions, interconnectées : penser, savoir, agir. Dans ce cadre, l’apprentissage par renforcement (Reinforcement learning) permet de développer des algorithmes plus efficaces pour explorer et exploiter les différents environnements, ou de simuler des environnements riches pour entraîner les IA à la gestion de scénarios complexes.
À ce type d'apprentissage s'ajoutent deux sortes de rétroactions : le retour d'informations par l'humain (RLHF / Reinforcement Learning from Human Feedback), et le retour d'informations par (une ou plusieurs) IA (RLAIF / Reinforcement Learning from AI Feedback) :
Les avantages du RLHF sont les suivants
Alignement du modèle amélioré sur les préférences humaines : avantage fondamental, qui permet aux LLM de comprendre et de générer des réponses non seulement grammaticalement correctes mais aussi utiles, pertinentes, inoffensives et conformes aux valeurs humaines.
Meilleures performances sur les tâches complexes et nuancées : le feedback humain aide le modèle à gérer des tâches qui impliquent des préférences, des jugements ou des valeurs subtiles, chose essentielle pour les applications conversationnelles ou la création de contenu.
Réduction des comportements indésirables : crucial pour minimiser la génération de contenus biaisés, toxiques, dangereux, factuellement incorrects (hallucinations) ou répétitifs. Les évaluateurs humains peuvent pénaliser les réponses non vérifiables.
Expérience utilisateur améliorée : les modèles affinés grâce au RLHF offrent des interactions plus naturelles, intuitives et personnalisées, notamment via les préférences utilisateurs.
Adaptabilité et amélioration continue : grâce au processus itératif du RLHF, les modèles s'adaptent et s'améliorent continuellement en fonction des interactions des utilisateurs et des nouveaux retours.
Efficacité accrue pour les paramètres complexes : le feedback humain est plus efficace que des règles ou des métriques techniques pour des paramètres d'entraînement subjectifs (comme l'ambiance d'un texte ou la créativité d'une histoire).
Les inconvénients
Coût et intensité en ressources humaines : collecter les données de préférences humaines est extrêmement coûteux, chronophage et laborieux, en exigeant une grande quantité de jugements humains de haute qualité. Recruter, former et gérer les évaluateurs est à la fois un défi logistique et humain, et un surcoût financier.
Biais du feedback humain : les jugements humains sont intrinsèquement subjectifs et peuvent être influencés par les préférences, les valeurs, les expériences, voire les biais culturels des évaluateurs. Sans oublier les incohérences, ou parfois la malveillance des évaluateurs, qui dégradent la qualité du feedback. Il est pour le moins nécessaire d'avoir un pool d'évaluateurs diversifié.
Difficultés de généraliser à de nouveaux contextes : il se peut que le modèle rencontre des contextes ou des prompts (invites) inattendus, pour lesquels il n'a eu aucun feedback direct. Dans ces cas-là, la robustesse du modèle peut montrer ses limites et conduire à des "hallucinations", des comportements indésirables.
Complexité et instabilité de l'entraînement : le processus de conception d'une fonction de récompense* efficace et stable peut s'avérer opaque et insuffisant (imaginez le cas d'un évaluateur humain répondant systématiquement "Je ne sais pas" pour éviter tout risque de mauvaise note). Cela peut parfois rendre le comportement du modèle difficile à comprendre.
Risques de sur-alignement et manque de créativité : si le modèle est trop fortement aligné sur les préférences moyennes des évaluateurs, il peut devenir trop "prudent" ou "générique", et risque de perdre une partie de sa créativité, de sa diversité ou de sa capacité à explorer des réponses nouvelles et inattendues.
Contournement des mesures de sécurité (jailbreaking) : le RLHF vise à rendre les modèles plus sûrs, entraînés pour ne pas générer de contenu nocif en conditions normales, mais des prompts ingénieux pourraient le forcer à le faire, en révélant un alignement superficiel.
* Je voudrais insister ici sur le mécanisme de la "récompense" (reward), fondamental dans l'évaluation d'une IA. En réalité, la récompense n'est autre qu'un signal numérique indiquant à un modèle d'IA si son action ou sa réponse est "bonne" ou "mauvaise" par rapport à l'objectif fixé. L'attribution des récompenses par un humain se déroule comme suit : l'évaluateur note des réponses d'IA de 1 à 5, par exemple. Un modèle de récompense (reward model) est entraîné pour prédire ces notes, et l'IA optimise ses réponses pour maximiser la récompense prédite. Exemple : ChatGPT préfère des réponses utiles et polies car son modèle de récompense a appris que les humains favorisent cette manière de répondre.
Donc, de fait, le RLHF reste la méthode la plus efficace pour aligner les IA complexes sur des critères subjectifs, mais son succès dépend :
de la qualité des annotateurs (diversité, expertise),
de la robustesse du modèle de récompense,
d'éventuels compléments techniques (combinaison de plusieurs modèles de récompense pour équilibrer les biais, par exemple).
Pour autant, les défis liés aux coûts, à la qualité et aux biais du feedback humain, poussent à la recherche de solutions alternatives, comme le RLAIF, dans la perspective de réduire à terme la dépendance aux humains (!). [Début]
- - -
Les avantages du RLAIF sont les suivants
Scalabilité et rapport coût-efficacité : avantage le plus significatif, compte tenu des coûts et de la lenteur relative du déploiement à grande échelle du feedback humain. Les évaluateurs IA peuvent générer des retours d'informations beaucoup plus rapidement, à un coût significativement moindre, et permettent un entraînement sur d'immenses volumes de données. La mise à l'échelle du RLAIF permet de générer des volumes massifs de données de feedback, chose essentielle pour entraîner des modèles toujours plus grands et complexes (là où le feedback humain serait vite un goulot d'étranglement).
Réduction des biais humains et consistance du feedback : lorsque les principes de jugement d'une IA sont définis clairement et sans biais, cela permet de réduire les biais humains dans le processus d'alignement. S'il est bien conçu, un évaluateur IA peut appliquer des règles de jugement plus cohérentes et objectives que des humains, dont les préférences sont souvent changeantes, et réduire ainsi la variabilité du feedback.
Vitesse d'itération : accélération considérable du feedback, ce qui permet des cycles d'itération et d'amélioration des modèles beaucoup plus rapides, un facteur d'une importance cruciale pour un développement accéléré des LLM.
Exploration de comportements et performances accrues : les évaluateurs IA peuvent être programmés pour évaluer des comportements très spécifiques ou rares, potentiellement difficiles à définir pour des humains.
Qualité des réponses et de l'éthique du modèle : certains résultats suggèrent que les modèles RLAIF sont moins susceptibles de fournir des réponses évasives dans le cas de requêtes sensibles, tout en restant inoffensifs. De même, un évaluateur IA peut être programmé pour respecter des règles éthiques prédéfinies, en garantissant ainsi que le modèle reste aligné sur des normes éthiques bien précises.
Flexibilité et adaptabilité : les évaluateurs IA peuvent être rapidement mis à jour ou reprogrammés pour s'adapter à de nouveaux critères d'évaluation ou à de nouvelles exigences de performance. Par ailleurs, les modèles entraînés par RLAIF peuvent atteindre des performances comparables, voire supérieures, à ceux entraînés par RLHF sur certaines tâches, notamment en matière de concision, de factualité et d'absence de toxicité.
Les inconvénients
IA vs. humain, une question de préférence : l'évaluateur IA peut finir par aligner le modèle sur ses propres "préférences d'IA", plutôt que sur les préférences humaines réelles. S'il contient des biais ou des lacunes, cela sera propagé et amplifié dans le modèle final. Défi majeur : l'évaluateur IA peut hériter ou développer ses propres biais, ce qui l'éloignera potentiellement des véritables préférences humaines ou introduira de nouvelles formes de biais.
Manque de nuance humaine et détérioration de certains aspects : certaines nuances du comportement humain sont difficiles à incorporer dans des principes ou des règles pour un évaluateur IA. Les évaluateurs IA peuvent avoir du mal à saisir les subtilités, l'humour, le sarcasme, l'empathie ou la créativité, autant de facteurs essentiels pour une interaction véritablement "humaine". Ils peuvent également optimiser des métriques sans en saisir les intentions profondes sous-jacentes. Sur certains aspects, l'inoffensivité des réponses peut parfois en diminuer légèrement l'utilité ou la justesse par rapport au RLHF.
Dépendance à la qualité de l'évaluateur IA : la performance du modèle final dépend fortement de la capacité de l'IA juge de comprendre et d'appliquer correctement les principes de jugement définis. Si l'évaluateur IA n'est pas lui-même suffisamment performant ou bien aligné, le feedback généré sera de mauvaise qualité, d'où une performance dégradée du modèle final, ce qui peut conduire à un cercle vicieux.
Manque d'explicabilité des décisions de l'IA juge : comprendre pourquoi un évaluateur IA a pris une certaine décision ou attribué un certain score peut être opaque, ce qui rend le débogage et l'amélioration du processus plus difficiles.
Risque de reward hacking* de l'évaluateur IA : de même qu'avec un feedback humain, le modèle entraîné peut apprendre à contourner l'IA juge, en trouvant des façons d'obtenir des scores élevés sans pour autant fournir des réponses optimales d'un point de vue humain.
Défis de mise en œuvre technique : implémenter un système RLAIF efficace peut s'avérer complexe du fait de la nécessité d'interagir entre deux modèles (le modèle à entraîner et l'évaluateur IA), et de formuler des principes de jugement sans équivoque. Si le modèle apprenant et le modèle juge sont trop similaires (cas de deux LLM), cela peut créer des boucles de renforcement des erreurs.
* La encore, il s'agit de récompense, et plus explicitement de "fraude à la récompense" (ou d'optimisation abusive de la récompense) : phénomène indésirable lorsqu'un agent (un modèle d'IA, dans ce cas) apprend à maximiser la fonction de récompense sans pour autant atteindre l'objectif sous-jacent souhaité par les développeurs. L'IA, qui trouve là une faille ou une faiblesse dans la façon dont la récompense est définie, l'exploite pour obtenir un score plus élevé, mais de manière non intentionnelle, voire préjudiciable.
Bien que le RLAIF soit une avancée majeure pour "démocratiser" l’alignement des IA, il ne remplace pas totalement le RLHF mais doit être privilégié pour des tâches objectives et scalables (ex. : classification, génération de code). Pour des problématiques plus subtiles (l'éthique, les interactions sociales), il y a tout intérêt à l'associer au RLHF afin d'obtenir des résultats mieux équilibrés. Sa réussite dépendra de l’amélioration des modèles juges (évaluateurs IA) et de la gestion des biais hérités. [Début]
*
Conclusion
Ce billet n'est qu'un saupoudrage, très très superficiel, de ce qu'est une IA et de la manière dont elle fonctionne. Dans la réalité, c'est de la très haute ingénierie, tout est très compliqué, souvent difficile à appréhender, donc traduire ça en mots simples était un défi. J'espère l'avoir relevé, en tout cas c'était passionnant à écrire, je souhaite que ça le soit autant pour vous à le lire. Je reste ouvert à toute critique et suggestion. [Début]
Il est clair que, tôt ou tard, la partie logicielle (l'IA, le cerveau) et la partie matérielle (l'IQ, le corps) fusionneront, avec une puissance telle que l'humanité n'a jamais rien connu de semblable depuis le Big Bang ! Le problème n'est plus de savoir si la fusion Superintelligence artificielle / Suprématie quantique aura lieu, mais quand ? Cela étant, une question demeure : pour en faire quoi ?
Pour améliorer les conditions de vie de l'humanité et de la planète, ou juste pour assurer toujours davantage l'emprise stricte des quelques acteurs qui détiendront cet incommensurable pouvoir SUP² sur la multitude de celles et ceux qui en dépendront ?
Je ne répondrai certes pas précisément dans ce billet à la question quand ?, je n'ai pas la boule de cristal, mais les bouleversements civilisationnels dont cette nouvelle réalité est porteuse m'interrogent.
Déjà il y a plus de 10 ans, quelqu'un opposait à la super-intelligence le principe de super-précaution, en avertissant : « L'intelligence artificielle est potentiellement plus dangereuse que le nucléaire... ». Un certain Elon Musk :
Worth reading Superintelligence by Bostrom. We need to be super careful with AI. Potentially more dangerous than nukes.
Selon IBM, la superintelligence artificielle (ASI) est un système logiciel (...) dont la portée intellectuelle dépasse l’intelligence humaine, et qui possède des fonctions cognitives de pointe et des compétences de réflexion extrêmement développées, plus avancées que celles de n’importe quel être humain.
Au final, on parle donc d'un système capable de dépasser les capacités de l'ensemble des humains dans tous les domaines de la connaissance, raisonnement, créativité, résolution de problèmes, etc.
Pour ne citer que les plus évidents. Mais de fait, nul ne sait où une telle (r)évolution pourra(it) nous conduire...
Pour l'heure, Pasqal nous indique que « l'efficacité de l'IA est souvent limitée par la puissance de traitement des ordinateurs classiques, en particulier lorsqu'il s'agit de grands ensembles de données ou de modèles complexes. C'est là que la synergie entre l'informatique quantique et l'IA devient la plus évidente.»
Pour la première fois dans l'histoire, les ordinateurs quantiques démontrent leur capacité à résoudre des problèmes à une échelle dépassant la simulation classique par force brute, où les seules alternatives sont des méthodes d'approximation classiques soigneusement élaborées et spécifiques à un problème. Ceux qui apprendront à exploiter ces capacités aujourd'hui pourraient être parmi les premiers à bénéficier de l'avantage quantique.
Où, selon moi, l'avantage quantique est l'état entre l'utilité quantique et la suprématie quantique. Je dis "selon moi" car, comme souvent lorsqu'il s'agit de nouveaux concepts, ni leur sens ni leur périmètre ne sont clairement définis. Le terme même de "suprématie quantique" ne fait pas l'unanimité, et d'aucuns lui préfèrent "avantage quantique", en plaçant celui-ci devant celle-là car ils arguent que l'"avantage" se situe avant tout sur un plan pratique, là où la "suprématie" reste plus théorique.
Pour ce qui me concerne, dans une échelle de significations, "avantage" se place loin derrière "suprématie", dont il n'arrive qu'au seizième rang de ses synonymes, après supériorité, prééminence, domination, maîtrise, prépondérance, souveraineté, royauté, prédominance, primauté, hégémonie, sceptre, omnipotence, grandeur, ascendant, aristocratie...
Par conséquent, mettre l'avantage devant la suprématie est illogique, un non-sens pur et simple. L’expression « suprématie quantique », créée en 2012 par John Preskill, conseiller du CIFAR, définit « le point où les ordinateurs quantiques peuvent accomplir des tâches qu’aucun ordinateur classique ne peut accomplir, peu importe si ces tâches sont utiles ».
C'est pour cela qu'IBM, en 2019, lorsque Google a revendiqué avoir atteint la suprématie quantique, a rejeté la prétention de Google (« un supercalculateur de pointe nécessiterait environ 10 000 ans pour effectuer une tâche équivalente »), en soutenant qu'une simulation idéale de la même tâche pourrait être réalisée sur un système classique en 2,5 jours et avec une fidélité bien supérieure. Et donc, le seuil proposé par John Preskill en 2012 n’a pas été atteint :
Because the original meaning of the term “quantum supremacy,” as proposed by John Preskill in 2012, was to describe the point where quantum computers can do things that classical computers can’t, this threshold has not been met.
Quantum supremacy is achieved when a formal computational task is performed with an existing quantum device which cannot be performed using any known algorithm running on an existing classical supercomputer in a reasonable amount of time.
10 000 ans, c'est pas raisonnable, 2,5 jours oui !
Du reste, IBM établit une différence claire entre utilité et avantage quantique : « Fondamentalement, l'utilité est une première étape clé vers la démonstration de ce qu'est l'avantage » (Abhinav Kandala).
De mon avis de novice, la suprématie quantique arrivera plutôt rapidement que tardivement, disons d'ici dix ou quinze ans. Dans son rapport intitulé « Potentiel quantique », le Canada nous dit dans le sommaire :
Le monde vit actuellement une deuxième révolution quantique. Les technologies quantiques évoluent depuis plusieurs décennies, passant du concept théorique à la mise en pratique. Une évolution qui inclut des améliorations constantes et accélérées des capacités, des réductions de coûts et une variété croissante d’applications potentielles et nouvelles. Les technologies quantiques offrent la possibilité d’exploiter les propriétés de la mécanique quantique afin de repousser les limites du possible.
Or la partie graissée s'applique tout aussi bien à l'IA, dont la dernière avancée date ... d'hier !
Et puisque l'on parle réduction de coûts, le développement de ChatGPT, initialement commercialisé en 2022, a coûté 540 millions $ ; celui de Gemini (2023), 191 millions $ ; celui de DeepSeek (2025), juste 6 millions $...
Par conséquent, à ce rythme-là, aussi bien en informatique classique que quantique, il est clair que les choses évoluent vite, trèsvite. Selon ChatGPT, l'échéancier des principaux acteurs est le suivant :
Pour la plupart, les démonstrations faites actuellement en vue de revendiquer la suprématie quantique ont concerné des problèmes algorithmiques conçus spécifiquement pour mettre en évidence les capacités des ordinateurs quantiques, mais sans applications pratiques directes. Cela est en train de changer avec D-Wave ou IonQ, par exemple, et les acteurs chinois ou d'autres vont probablement nous réserver quelques surprises.
Or pour atteindre une suprématie quantique reconnue, applicable,durable, robuste, répétable, incontestable et utile, il faudra disposer de processeurs quantiques tolérants aux fautes (avec correction d’erreurs), capables de faire des calculs plus longs et plus fiables. Parmi les défis techniques majeurs :
Réduction du bruit et des taux d'erreur quantique
Augmentation du nombre (des milliers, voire des millions) de qubits stables, corrigeables et interconnectés
Qualité (finesse) des opérations quantiques (fidelité des portes logiques)
Développement de codes correcteurs d'erreurs efficaces
Avancées dans les algorithmes hybrides quantique-classique
La fourchette des prévisions que j'ai pu consulter va de 5 ans (2030) à 20 ans (2045), mais gageons qu'avec l'intelligence artificielle élevée à la puissance exponentielle de l'informatique quantique (IAIQ), l'état SUP² sera vite atteint !
Voilà pour le quand. Pour en faire quoi ? (la question reste posée...)
Le 7 juin 2024, l'Assemblée générale des Nations Unies a adopté la résolution 28/287 proclamant 2025 Année internationale des sciences et technologies quantiques, inaugurée les 4 et 5 février derniers, initiative à suivre sur X avec les hashtags suivants : #IYQ2025, #QuantumCurious, #QuantumFuture, #QuantumYear, #STEMEducation (où STEM signifie Science, Technologie, Ingénierie et Mathématiques).
Une journée mondiale de la quantique ayant même été fixée au 14 avril dernier. 2025 n'a pas été choisie au hasard, mais parce qu'elle marque le centenaire de la mécanique quantique, afin de sensibiliser le public à l’importance et à l’impact de la science et des applications quantiques sur tous les aspects de la vie.
En 2019, Google revendique avoir atteint la suprématie quantique avec son processeur Sycamore, en affirmant avoir réalisé en 200 secondes une tâche informatique qui aurait demandé 10 000 ans à un supercalculateur à la pointe de la technologie, une "prétention" réfutée par IBM et d'autres. Chaque année, la société a progressé ensuite, jusqu'à dévoiler sa nouvelle puce quantique, Willow, en décembre 2024, une étape cruciale depuis la création de Google Quantum AI en 2012, selon Hartmut Neven.
Quatre mois plus tard, le 26 avril 2025, Google, encore et toujours, annonce une avancée majeure dans la technologie quantique, en effectuant des calculs en quelques secondes là où ces mêmes tâches demanderaient 47 ans aux supercalculateurs traditionnels les plus avancés, tels que Frontier. Un bond en avant susceptible de révolutionner tous les domaines.
Or, quelques jours plus tôt, j'avais vu passer une "vieille" info surprenante (au moins pour moi !) : grâce à sa puissance de calcul, l'informatique "classique" (très haute performance, quand même) est en mesure d'effectuer 125 millions de milliards d'opérations en virgule flottante par seconde (125 pétaflops) de performances maximales grâce à 4000 milliards de transistors et 900 000 cœurs de calcul optimisés pour l'IA :
Le système CS-3 est conçu pour entraîner des modèles de langage 10 fois plus grands que GPT-4 et Gemini, pour ne citer qu'eux. Il s'appuie pour cela sur un important système de mémoire pouvant atteindre 1,2 pétaoctet. Par ailleurs, 24 000 milliards de modèles de paramètres peuvent être stockés dans un seul espace mémoire logique sans partitionnement ni remaniement, assure Cerebras. (...) Les configurations compactes à quatre systèmes permettent d'affiner des modèles de type 70B en une journée, tandis qu'à grande échelle, en utilisant 2048 systèmes, Llama 70B peut, par exemple, être entraîné à partir de rien en une seule journée.
Les développeurs s'appuyant sur le modèle Llama 4 Cerebras dans l'API peuvent s'attendre à des vitesses de déploiement jusqu'à 18 fois supérieures à celles des solutions GPU traditionnelles. Une accélération qui ouvre la voie à une toute nouvelle génération d'applications, impossibles à développer avec d'autres technologies.
Donc, en mettant en relation ces deux infos, où un supercalculateur peut entraîner un modèle d'IA gigantesque en une seule journée alors qu'il lui faudrait 47 ans pour effectuer les tâches accomplies par l'ordinateur quantique de Google, j'en ai conclu que ce dernier pourrait entraîner les futurs modèles géants d'IA en quelques secondes à partir de rien !
Conclusion hâtive et inexacte, due à mon ignorance en la matière ! En faisant des recherches pour expliquer ce cas de figure tout à fait incroyable, j'ai trouvé l'article intitulé : « Informatique quantique et IA : moins compatibles que prévu ? », rédigé le 8 octobre 2024 par Filippo Vicentini (professeur assistant en intelligence artificielle et physique quantique à l'École polytechnique - IP Paris), extrait du n° 8 d'octobre 2024 du magazine Le 3,14 de Polytechnique insights.
En bref, on y apprend que les ordinateurs quantiques sont notamment très lents (!), et que seuls des calculs très courts sont effectués sans pannes. Cela étant dû au fait qu'ils sont adaptés et utiles pour les applications qui nécessitent des entrées et des sorties limitées, mais une puissance de traitement énorme, mais probablement pas pour tout ce qui concerne les données volumineuses et les réseaux neuronaux (les IA, donc) :
De plus en plus d’experts reconnaissent que les ordinateurs quantiques resteront probablement très lents lorsqu’il s’agira d’entrer et de sortir des données. Pour vous donner une idée, nous pensons qu’un ordinateur quantique qui pourrait exister dans cinq ans – si nous sommes optimistes – aura la même vitesse de lecture et d’écriture qu’un ordinateur moyen de 1999-2000.
Et M. Vicentini de conclure : « Je pense que l’IA et l’informatique quantique seront des composants différents dans une pile d’outils – complémentaires mais non compatibles. »
C'est à n'y plus rien comprendre ! À la même époque IBM nous disait qu'il pourrait y avoir convergence des deux dans l'intelligence artificielle quantique (IAQ), et que l’IAQ pourrait par exemple faire passer la durée d’entraînement des LLM (grands modèles de langage) de plusieurs semaines à quelques heures, permettant ainsi la création quasi instantanée de nouveaux assistants IA hautement spécialisés dans des sujets complexes, techniques ou même expérimentaux.
En gros, mon postulat de départ ! Donc que croire ? Qui croire ? Selon les IA à qui j'ai posé la question de la compatibilité entre intelligence artificielle et ordinateurs quantiques (je ne parle pas ici de l'utilité de la première pour les seconds, mais de la puissance de calcul quantique des seconds au service de la première), toutes ont pratiquement les mêmes réponses : bien que l'entraînement des LLM grâce à l'informatique quantique soit une perspective théorique prometteuse, cela reste un domaine de recherche en développement. Et avant que cela ne devienne une réalité pratique, probablement pas avant 10 à 15 ans, des avancées significatives sont nécessaires tant au niveau de l'hardware quantique que des algorithmes.
Là encore, que croire, qui croire ? Sur le terrain de l'IA, il est fort probable que l'informatique quantique ne concurrence pas l'informatique classique dans l'immédiat (voire jamais), et que l'on s'oriente plutôt vers une approche hybride combinant les deux, avec une convergence progressive vers l'intelligence artificielle quantique.
Entre-temps, autant les grands acteurs - Google, IBM, Apple, Microsoft, Meta, xAI, Amazon, Nvidia, OpenAi, etc., tous très actifs dans les domaines IA/IQ - que les gouvernements et les instances internationales, dont l'Union européenne, souhaitent placer leurs pions :
« Grâce à un chiffrement résistant aux compromissions et à des défenses étendues contre les attaques quantiques les plus sophistiquées, PQ3 est le premier protocole de messagerie à atteindre ce que nous appelons le niveau 3 de sécurité, offrant des protections de protocole supérieures à celles de toutes les autres applications de messagerie largement déployées. À notre connaissance, PQ3 possède les propriétés de sécurité les plus solides de tous les protocoles de messagerie à grande échelle au monde. »
* Microsoft prévient que les États-Unis risquent de se laisser distancer par la Chine, qui investit des milliards dans les technologies quantiques, en soulignant l'urgence d'une action coordonnée entre le gouvernement, le monde universitaire et l'industrie. Le groupe appelle donc à accroître le financement fédéral de la recherche, à stimuler le développement des talents quantiques et à consolider la production quantique nationale afin de maintenir le leadership technologique des États-Unis dans la course mondiale à l'informatique quantique.
Quant au positionnement de la société sur le quantique, Zuckerberg est plus attentiste, en déclarant que les ordinateurs quantiques étaient à plus de 10 ans de devenir utiles. Il est davantage branché sur le développement d'une intelligence artificielle générale, puisqu'il a déclaré le 30 avril, lors de la présentation des résultats trimestriels, « We are focused on building full general intelligence. »
* Concernant Elon Musk, se quête insatiable de puissance de calcul pour xAI ne faiblit pas. Après avoir mis en libre accès le programme de son robot conversationnel Grok, intégré à X, il a annoncé en mars 2025 la fusion de son entreprise xAI avec sa plateforme X pour mieux consolider les données, les modèles et les ressources informatiques des deux équipes. En revanche, bien qu'assez silencieux sur l'informatique quantique, il a manifesté son intérêt en répondant « Wow » à un post de Sundar Pichai, PDG de Google, sur la nouvelle puce « Willow » de Google Quantum AI, avant d'échanger avec lui sur la possibilité d'installer un « cluster quantique dans l'espace avec Starship », en référence au projet de vaisseau spatial de SpaceX destiné à transporter des humains et du fret vers la Lune, Mars et au-delà. Réponse de Musk : « Cela arrivera probablement »...
* OpenAI a lancé le projet Stargate en janvier 2025, qui prévoit d'investir 500 milliards de dollars sur 4 ans, et le déploiement d'un centre de données dédié à Abilene, au Texas, d'ici fin 2026... Aux côtés d'OpenAI, les premiers financeurs sont SoftBank, Oracle et MGX, et les principaux partenaires technologiques ARM, Microsoft, NVIDIA et Oracle.
* Les États-Unis ne sont pas en reste, d'ailleurs Trump a toujours été très actif sur le sujet (la loi nationale sur l'initiative quantique a été promulguée sous son premier mandat), et il n'y a qu'à voir la photo de famille lors de sa seconde investiture pour mieux comprendre :
* La Darpa (à l'origine d'Internet, quand même...) a sélectionné le 3 avril 2025 pour la première phase de son programme Quantum Benchmark Initiative les entreprises retenues : Alice & Bob, Atlantic Quantum, Atom Computing, Diraq, Hewlett Packard Enterprise, IBM, IonQ, Nord Quantique, Oxford Ionics, Photonic Inc., Quantinuum, Quantum Motion, QuEra Computing, Rigetti Computing, Silicon Quantum Computing Pty. Ltd., Xanadu. Des noms connus et moins connus, mais dont l'on entendra probablement parler dans les années à venir.
* La France, qui organise le 10 juin prochain, à la Station F, France Quantum, déploie une Stratégie Nationale Quantique dans le cadre du plan France 2030, avec vocation à devenir un acteur incontournable des technologies quantiques. Les militaires également se lancent dans la course au calculateur quantique universel en se donnant les moyens de leurs ambitions (500 millions d'euros), pour développer le programme Proqcima du ministère des Armées en vue de réaliser deux prototypes français d'ordinateurs quantiques universels de 128 qubits logiques (soulignons au passage qu'en français, Qubit, phonétiquement parlant, c'est pas le top...).
En conclusion, il est clair que tôt ou tard la partie logicielle (l'IA, le cerveau) et la partie matérielle (l'IQ, le corps) fusionneront, avec une puissance telle que l'humanité n'a jamais rien connu de semblable depuis le Big Bang ! Le problème n'est plus de savoir si la fusion Superintelligence artificielle / Suprématie quantique aura lieu, mais quand ? Cela étant, une question demeure : pour en faire quoi ?
Pour améliorer les conditions de vie de l'humanité et de la planète, ou juste pour assurer toujours davantage l'emprise stricte des quelques acteurs qui détiendront cet incommensurable pouvoir SUP² sur la multitude de celles et ceux qui en dépendront ? J'ai ma petite idée de la réponse, et elle n'est pas très optimiste...