mercredi 25 février 2026

Répondabilité

Mon dernier billet sur les Quinze grands principes d’habitabilité à l'ère de l'IA met au premier rang la notion de répondabilité, en posant la définition suivante : 

Possibilité de répondre à (une personne, une demande) et surtout de répondre de (ses mots, ses actes et leurs effets). Sans répondabilité, pas de responsabilité.

Voici donc la répondabilité réduite à sa plus simple expression : le binôme répondre à / répondre de, mis ensemble, particulièrement adapté à l'IA...

*

J'ai vu passer sur LinkedIn un post sur l'accent anglais des LLM, basé sur l'analyse du document Do Large Language Models Have an English 'Accent'?, dont la thèse principale est que les grands modèles de langage multilingues ont tendance à produire des textes qui, bien que grammaticalement corrects, manquent de naturel et reflètent des structures propres à l'anglais, en prenant l'exemple du chinois et du français. Je ne m'attarderais pas ici sur le chinois, j'en serais bien incapable, mais juste sur le français.

Du fait qu'ils sont entraînés sur des données majoritairement anglophones, les modèles multilingues génèrent des sorties "peu naturelles" dans les autres langues, en reproduisant des schémas de vocabulaire et de grammaire anglais. Au plan technique, l'étude propose de mesurer le "naturel" rendu à l'échelle d'un corpus par deux métriques : la divergence de Jensen-Shannon (JSD) pour le "naturel lexical", et les arbres de dépendance et les noyaux de graphes (Weisfeiler-Lehman) pour le "naturel syntactique".

Selon les auteurs, il existe un fossé systématique et persistant entre le naturel des textes humains et celui des textes générés par les LLM. Ils soulignent l'influence des données d'entraînement, puisque les modèles Mistral (développés en France) montreraient un meilleur naturel en français, probablement grâce à l'utilisation de données linguistiquement plus "authentiques".

Ils en concluent que le naturel linguistique est une dimension cruciale souvent négligée au profit de la seule performance technique, et appellent à une plus grande transparence sur la composition des données d'entraînement. Très bien.

*

Savez-vous ce qu'est le "forçage" d'une langue ? C'est un concept connu depuis des siècles en traduction. Les deux exemples canoniques sont la traduction de la Vulgate de l'hébreu et du grec au latin par saint Jérôme lui-même (patron des traducteurs), et la Bible de King James du latin à l'anglais, où les textes ne sont pas purement et simplement transposés en "bon latin classique" ou en "bon anglais classique", mais où ils créent un idiome neuf, un registre plus qu’une langue, en important des rythmes, des parallélismes, des tours syntaxiques, des manières de faire tenir la solennité dans les mots et les phrases que leur langue cible ne leur aurait pas permis.

La traduction a toujours été l'art de "violenter" une langue maternelle pour lui faire dire ce qu’elle ignorait encore. Ainsi, les traducteurs de la Bible ont « forcé » l’usage des langues, en important des structures hébraïques, grecques ou latines qui ont fini par devenir le socle des langues d'accueil.

Autrement dit, le forçage peut ne pas être une souillure ou une erreur corrigible, mais un choix productif, une manière d’ouvrir des capacités expressives, de forcer la langue à utiliser des mots ou des tournures qu'elle ne connaît pas. Encore. Lorsque l'on parle plusieurs langues, les exemples de ce genre se comptent par centaines, par milliers.

Donc, loin de moi l'idée de mettre saint Jérôme et l'IA sur un même niveau, mais juste de relever une identité de principe : "forcer" la langue est souvent aussi une extraordinaire opportunité de l'enrichir par métissage, de l'obliger à inventer, et à s'inventer, se réinventer en permanence. 

*

Je viens de co-écrire avec les LLM près d'un demi-million de mots en moins de six mois (la liste ici) (pour comprendre ce que représentent un demi-million de mots...), et j'en ai déjà plus de 100 000 nouveaux en chantier, or je suis constamment émerveillé par cette capacité de l'IA de faire, concevoir ou planifier souvent bien mieux que nous, "pauvres" humains. Mais restons concentrés sur la production de mots en général, et d'un mot en particulier : répondabilité.

C'est un concept central que je retrouve partout, mais surtout dans Le nouveau régime communicationnel de l'humanité et Pour une écologie du sens. Et c'est un concept crucial aussi dans l'usage que je fais de l'IA et des LLM, notamment en termes d'endossement : là où la répondabilité engage la responsabilité. Permettez-moi de m'attarder un instant sur cette idée.

Les LLM répondent à tout (sans répondre de rien). Le plus souvent pertinemment, parfois n'importe comment. On appelle ça des hallucinations : ils disent n'importe quoi, inventent, bâtissent du vraisemblable sur du faux, du plausible sur du vent. Mais que leur reprocher, puisque ce sont des entités sans existence propre ? Par contre si je prends leur texte et que je le publie sous mon nom, c'est à moi qu'on reprochera - à juste titre - d'avoir affirmé ce qui n'est pas et d'induire ainsi en erreur celles et ceux qui me font l'honneur de me lire.

Mais en apposant ma signature sur le demi-million de mots évoqués plus haut, cela signifie que j'accepte d'en répondre - erreurs comprises - mot pour mot. Et donc de justifier mes choix, en toute circonstance. D'ailleurs, j'ai déjà eu l'occasion de m'en expliquer

Lorsque je trouve des raisonnements [ou des mots] pertinents et que je décide de les insérer dans mon texte, je les fais miens. Cela signifie que je me les approprie, et que lorsque je publie un texte avec des mentions de ChatGPT ou de n'importe quelle autre IA dedans, j'en assume la paternité, en toute conscience. Ce n'est pas pour rien que je signe tous mes billets !

*

Un chercheur universitaire romain, Walter Quattrociocchi, a forgé un néologisme italien, l'epistemia, qu'il définit comme une incapacité de distinguer entre ce qui a l'air d'être de la connaissance et ce qui est réellement de la connaissance. Selon lui l'épistémie désigne un court-circuit entre crédibilité perçue et fiabilité réelle : un contenu peut nous sembler vrai, non parce qu’il l’est, mais parce que sa forme linguistique nous rappelle celle des contenus qui nous disent habituellement des choses vraies. 

D'autant plus que les LLM ne se contentent plus de générer des textes plausibles, ils le font en s'adaptant à l'utilisateur. Ce que les spécialistes nomment la "sycophancie", complaisance ou flagornerie, comme vous préférez, à savoir la tendance d'un modèle à donner raison à l'utilisateur même quand c'est faux, discutable ou non étayé. 

En conclusion, l'épistémie est pire que l'ignorance : c'est l'incapacité de percevoir qu'il manque quelque chose, parce que tout semble déjà en place. Les LLM n'élèvent pas le niveau du débat. Ils l'aplanissent. Tout se présente comme information. Tout est à la fois accessible, fluide, autoritaire, et vide... Il faut donc une nouvelle forme d’alphabétisation. Non seulement aux contenus, mais à la forme de l’information. Comprendre comment une phrase a été générée devient aujourd’hui aussi crucial que d’en comprendre le sens.

*

Comment traduire epistemia en français ? Il est évident que le candidat le plus naturel, le plus logique est épistémie. Problème : depuis la notion d'épistémè (de la racine grecque επιστήμη qui signifie savoir ou connaissance) selon Michel Foucault (voir Les Mots et les Choses, 1966), à savoir : 

l’ensemble des relations qui, à une époque donnée, unissent les pratiques discursives et rendent possibles certaines formes de savoir 

rethéorisée en épistémie par Georges Canguilhem (Mort de l'homme ou épuisement du cogito ?, 1967, reprise ensuite dans Études d'histoire et de philosophie des sciences, 1968), comment introduire en français un nouveau sens à ce terme sinon par réassignation (voire par déstabilisation) sémantique ?

Nous avons là un autre exemple de ce que signifie "forcer la langue" : face au concept foucaldien déjà notoire d'épistémè, il s'agit d'importer le sens italien contemporain d'épistémie - en tant que condition cognitive de confusion où la vraisemblance linguistique se substitue à la validation épistémique - pour combler un vide conceptuel.

*

En conclusion, ce double geste de forçage linguistique (répondabilité d'un côté, épistémie de l'autre) devient nécessaire dès lors que la langue doit nommer des réalités qu’elle ne sait pas encore distinguer. Toute langue vivante doit s’ajuster aux transformations de l'épistémè de son époque. Maintenant, faut-il vraiment accorder une importance décisive au fait que le premier terme émerge d'une IA largement entraînée sur des corpus anglo-saxons, tandis que le second procède d'une initiative humaine ? Ce qui importe n’est-il pas moins l’origine que la fécondité du néologisme ?

À vous la réponse : une réponse ... répondable !



samedi 7 février 2026

Quinze grands principes d’habitabilité du monde commun à l'ère de l'IA

page IA

IA inside

*

Je viens de coproduire avec l'IA 300 000 mots en un mois et demi (je suis en passe de terminer mon essai sur la mémoire). Liste de mes travaux déjà publiés ici.

C'est une aventure fascinante ! Durant laquelle je rencontre toujours, plus ou moins, les mêmes grands principes. Transversaux, applicables au sens, au langage, à la mémoire, à l'IA ou autre. Je voudrais les expliciter une fois pour toutes, car dire de quelque chose que c'est répondable, situable ou adressable, par exemple, est quasiment incompréhensible de prime abord. Comme je le cite en exergue à la théorie et la pratique du sens, nous ne sommes pas habitués à raisonner à un tel niveau d'abstraction.

Or, vous allez le voir, c'est très concret. J'ai isolé 15 grands principes (il y en a d'autres mais je devais faire un choix), divisés en trois groupes.

Groupe 1 : répondre à / répondre de

  • Répondabilité (Answerability)
  • Adressabilité (Addressability)
  • Imputabilité (Accountability)
  • Traçabilité (Traceability)
  • Contestabilité (Contestability)

Groupe 2 : ajuster, corriger, contextualiser

  • Révisabilité (Reviewability)
  • Réversibilité (Reversibility)
  • Situabilité (Situability)
  • Temporalité (Temporality)
  • Continuité (Continuity)

Groupe 3 : rendre le monde commun partageable et habitable

  • Pluralité (Plurality)
  • Interprétabilité (Interpretability)
  • Partageabilité (Shareability)
  • Proportionnalité (Proportionality)
  • Finitude (Finitude)
*

Répondabilité — Possibilité de répondre à (une personne, une demande) et surtout de répondre de (ses mots, ses actes et leurs effets). Sans répondabilité, pas de responsabilité.

Adressabilité — Existence d’un destinataire ou d’une instance identifiable à qui s’adresser. Sans adresse, aucune responsabilité ne peut pas être engagée.

Imputabilité — Capacité d’attribuer un acte ou un effet à un agent, une décision ou un processus. Condition de la responsabilité, du mérite, de la faute, de la réparation.

Traçabilité — Possibilité de remonter aux sources et aux étapes (qui, quoi, comment, quand) d’un processus, un travail. Elle rend intelligible et contrôlable ce qui produit des effets.

Contestabilité — Possibilité de mettre en cause, discuter et contester décisions, récits ou résultats. Empêche l’arbitraire et maintient l’espace public ouvert.

Révisabilité — Capacité de corriger, amender, améliorer à partir de nouvelles raisons ou informations. Antidote à la rigidité et condition de l’apprentissage.

Réversibilité — Possibilité d’annuler, revenir en arrière, réparer une décision ou une action. Limite l’irréparable et institue une prudence structurelle.

Situabilité — Capacité de replacer ce qui est dit ou fait dans ses conditions d'origine (contexte, position, époque, cadre d’usage). Empêche le « sans ancrage ».

Temporalité — Inscription des actions et des significations dans une durée (avant/après, conséquences, transmissions). Condition de possibilité de l'histoire, la mémoire et la responsabilité.

Continuité — Capacité à tenir ensemble dans le temps malgré les changements (trajectoires, institutions, engagements). Fournit cohérence, repères et stabilité.

Pluralité — Coexistence de perspectives, récits et intérêts, sans réduction à une version unique. Maintient le désaccord fécond et favorise l'ouverture.

Interprétabilité — Possibilité de comprendre ce qui se passe et pourquoi (sens, règles, raisons), pas seulement de subir ou d’exécuter. Conditionne l’appropriation et la discussion.

Partageabilité — Capacité de transmettre, communiquer et mettre en commun savoirs, expériences et règles. Fonde l’apprentissage collectif et la coordination.

Proportionnalité — Exigence de mesure entre moyens et fins, entre contrainte et liberté, entre intervention et effets. Empêche la démesure et la totalisation (où totalisation représente la tendance d’un principe, d’un dispositif ou d’un pouvoir à devenir « tout », sans laisser de marge aux autres).

Finitude — Reconnaissance de limites (connaissance, contrôle, conservation) comme condition d’équilibre. Rend possible l'oubli, la liberté, la pluralité, la « respiration du monde » : la finitude n’est pas un défaut, mais une condition de liberté et de vie.

*

Dans le cadre d'une philosophie des usages de l'IA, ces trois groupes offrent une grille de lecture concrète pour évaluer des pratiques, des dispositifs, des architectures, etc.

Le premier groupe, celui du « répondre à / répondre de », est sans doute le plus décisif. Une IA peut répondre à des questions, résoudre des problèmes, générer des textes. Mais répondre de ce qu’elle produit est une autre affaire. Qui répond d’une erreur ? d’un biais ? d’une décision automatisée ? Derrière chaque usage réel se pose la question de la répondabilité : y a-t-il quelqu’un à qui s’adresser, quelqu’un qui assume, quelqu’un qui peut corriger ? Sans adressabilité claire, l’imputabilité se dilue. Sans traçabilité, on ne sait plus d’où viennent les résultats. Sans contestabilité, on ne peut plus discuter ni corriger. Ce premier bloc constitue donc le socle d’une utilisation responsable : il maintient la possibilité de demander des comptes.

Le deuxième groupe concerne l’ajustement. Une technologie devient problématique lorsqu’elle produit des décisions ou des effets sans possibilité de retour, de correction ou de contextualisation. Une IA bien intégrée dans les pratiques humaines doit rester révisable : ses usages doivent pouvoir évoluer. Elle doit rester réversible : on doit pouvoir annuler, corriger, revenir en arrière. Elle doit rester situable : ses réponses ne valent que dans un cadre, à partir de données, dans un contexte donné. Et elle doit s’inscrire dans une temporalité et une continuité : non comme une machine figée, mais comme un outil qui s’insère dans des trajectoires humaines, des apprentissages, des histoires.

Le troisième groupe touche à quelque chose de plus large : la condition d’un monde commun partageable. L’IA n’est pas seulement une affaire de performance ou d’efficacité ; elle transforme la manière dont nous comprenons, transmettons et organisons le réel. La pluralité doit être maintenue : un système ne doit pas écraser les points de vue sous une version unique. L’interprétabilité reste essentielle : il faut pouvoir comprendre ce qui se passe, pas seulement obtenir un résultat. La partageabilité garantit que les savoirs produits circulent, se discutent, se transmettent. La proportionnalité rappelle que l’usage d’un outil doit rester mesuré : il ne doit pas tout envahir ni tout remplacer. Et la finitude, enfin, nous rappelle que tout ne doit pas être optimisé, stocké, automatisé ou conservé. Il doit rester des marges, des silences, des zones d’incertitude.

Appliqués à l’IA, ces principes ne forment pas une morale abstraite, mais une boussole. Ils permettent de poser des questions simples : à qui s’adresse-t-on ? qui répond ? peut-on corriger ? peut-on comprendre ? peut-on discuter ? jusqu’où cela doit-il aller ? que doit-on accepter de ne pas savoir, de ne pas garder, de ne pas automatiser ? Ils ne disent pas ce qu’il faut penser de l’IA en général, mais ils permettent d’observer concrètement comment elle s’insère dans nos pratiques, nos institutions, nos relations. Là où ces principes sont respectés, l’outil s’intègre. Là où ils s’érodent, quelque chose du monde commun se fragilise.

*

Il y a moins d'un an, je ne savais absolument rien de l'IA ni des LLM. Je découvrais juste la cause de la disparition de mon travail : 40 ans à me former en continu, une expérience quasi-encyclopédique, et hop, tout cela disparaît du jour au lendemain ! J'avais besoin de comprendre. Certes, je suis loin d'avoir encore tout compris. Mais je progresse...