IA inside
[Dernier billet de l'année 2025]
Tout juste trois ans après la sortie de ChatGPT, à la veille de 2026, l'IA bouleverse profondément nos sociétés, et notamment le langage.
Pour la première fois dans l’histoire humaine, la parole et l’écriture peuvent être produites, converties et reformulées automatiquement, à grande échelle, par des systèmes sans locuteur humain identifiable. Ce bouleversement ne relève pas seulement de la technologie : il modifie nos manières de produire du sens, de faire mémoire et d’attribuer l’autorité des énoncés.
Le schéma proposé, intitulé Architecture contemporaine des régimes du langage, distingue volontairement les conditions médiatiques de production langagière des régimes sémiotiques de signification, afin d’éviter toute confusion entre dispositifs techniques et structures de sens.
Dans le but de comprendre le nouveau régime communicationnel qui est en train d'émerger, voire de s'imposer, souvent sans que nous en ayons pleinement conscience, ce billet se propose de nommer et d'organiser ce nouveau paysage, marqué par la fusion opérationnelle de l’oral et de l’écrit, la stratification des textes et des échanges, et la reconfiguration de la fonction d’auteur à l’ère des systèmes génératifs.
*
L'oralité est le premier moyen d'expression de l'humanité. Pendant des millénaires, les sociétés humaines ont transmis leurs savoirs, leurs croyances et leur mémoire collective exclusivement par la parole, à travers les récits, les mythes, les chants, les formules rituelles. Dans ces cultures d’oralité primaire, la parole n’est pas un simple véhicule de l’information : elle est un acte, un événement inscrit dans une situation sociale précise, fondé sur la mémoire vivante et la relation entre les locuteurs.
L'écriture n’apparaît que vers 3300 av. J.-C. en Mésopotamie, alors que le langage oral existe depuis des dizaines de milliers d’années. Son invention marque une transformation décisive, sans faire disparaître l’oralité, qui reste fondamentale : elle précède l’apprentissage de l'écriture chez l’enfant et demeure centrale dans la vie quotidienne. Tandis que la parole est une faculté naturelle de l’espèce humaine, le langage oral une capacité biologique universelle, l'écriture est une technologie artificielle (ancêtre de l'IA ?), un dispositif construit, appris, historiquement situé, qui rend la parole visible et durable, modifie la mémoire et transforme la pensée (analyse, abstraction, distance critique).
Donc, pendant la majeure partie de l’histoire humaine, la culture orale est l'infrastructure totale de la communication humaine :
- la mémoire est portée par des personnes (anciens, conteurs, prêtres),
- le savoir circule par récits, chants, rituels,
- la crédibilité est souvent liée au dire (« je l’ai entendu de… »).
Pour stabiliser le souvenir, les sociétés développent différentes techniques : répétitions, rythmes, proverbes, généalogies, formules. L’oralité n’est plus «primitive», elle est hautement organisée.
Avec l'arrivée de l'écriture (tablettes, hiéroglyphes, alphabets), on bascule du souvenir vivant à l’archive, vu qu'il n'y a pas d'écriture sans support, elle n'existe que matérialisée.
De plus, le support n’est pas un simple réceptacle neutre : il contraint la forme (longueur, linéarité, segmentation), oriente les usages (archive, circulation, effacement), hiérarchise le temps (durable / éphémère). Écrire sur pierre n'est pas écrire sur papier ; écrire sur une tablette n'est pas écrire sur parchemin.
Chaque support encode sa propre politique d'écriture, de même qu'il modèle le geste d’écrire :
- Tablette d'argile → écriture incisée, lente, comptable.
- Parchemin → écriture réinscriptible, palimpseste possible.
- Papier → écriture abondante, brouillon, diffusion.
- Écran → écriture réversible, fragmentée, versionnée.
On lit une surface, une organisation spatiale, une typographie, une interface. Lire un rouleau, un codex, une page imprimée ou un fil numérique n’engage pas la même attention, la même mémoire, la même temporalité.
Le mode de lecture est inscrit dans le support, qui prescrit une forme de lecture :
- Rouleau → lecture continue, orale, collective.
- Codex → lecture discontinue, silencieuse, comparative.
- Livre imprimé → lecture linéaire stabilisée.
- Écran → lecture fragmentée, exploratoire, zapping.
Ainsi, chaque technologie de l’écriture fabrique un type de lecteur, de même que le support inscrit une anticipation du lecteur dans l’acte d’écrire. Hier un support-matière, aujourd'hui un support-dispositif :
- plateformes
- interfaces (chat, fil, stories),
- classements (ranking),
- formats (limites, templates),
- modèles (IA, LLM),
- règles (modération, visibilité)
- multimodalité (audio, vidéo), etc.
Dans le régime communicationnel classique, nous avions deux ordres distincts, qui entretenaient une asymétrie productive :
- L'oral précède : les humains parlent avant d’écrire, l'enfant babille avant de tracer des lettres, l'oral a ses hésitations, ses reprises, son rythme ;
- L'écriture fixe, et change radicalement ce que peut faire une société avec le langage (mémoire, loi, savoir, pouvoir) : l'écrit capture, stabilise, permet la relecture, a une syntaxe élaborée, une ponctuation, etc.
Cette distinction structurait nos rapports au langage : écrire était un acte second, une mise en forme réfléchie de la pensée. Passer de l'un à l'autre demandait des efforts, des ressources, de l'argent et du travail (sténographie, secrétariat, transcription), alors qu'aujourd'hui nous avons un effacement des frontières, la conversion devient instantanée, automatique, bidirectionnelle :
Oral → Écrit
- Je dicte un message, il apparaît écrit (reconnaissance vocale)
- Une réunion Zoom génère sa transcription automatique
- Un podcast produit son résumé textuel
Écrit → Oral
- Je tape une question, l'IA me répond en voix synthétique
- Un article devient un podcast via text-to-speech
- Un prompt génère un discours oral crédible
Nouveauté radicale : ce n'est plus un humain qui convertit, c'est le système, la plateforme. Et cette conversion n'est pas neutre, elle est interprétative, génératrice, transformatrice, avec trois niveaux de convertibilité (pour l'instant) :
- Convertibilité technique (genre traduction automatique text-to-speech / speech-to-text)
- Convertibilité modale : l'indifférence au medium (pour un LLM, aucune différence entre oral et écrit, tout est token, vecteur, probabilité)
- Convertibilité existentielle : l'indifférence au sujet (effacement de la source, qui parle, qui écrit ?)
Je n'aime pas du tout ce terme de "machinique" ! Jusqu'à présent le binôme oral-écrit était réservé aux humains, pas aux machines. Or comment qualifier une parole qui n'a jamais été produite ni prononcée par aucun humain, si ce n'est "parole machinique" ?
Dans un régime d'oralité secondaire nous pouvions concevoir « la machine reproduit de la parole humaine enregistrée », mais là nous sommes face à une voix synthétique qui mime l'humain, ses intonations, des émotions (certes simulées : joie, empathie, urgence...), voire au clonage vocal : je m'entends dire quelque chose que je n'ai jamais dit (deepfakes, arnaques vocales) !!!
Quant aux assistants conversationnels actuels, ils révèlent déjà un trait décisif du nouveau régime communicationnel : l’interaction dialoguée tend à s’imposer comme interface standard, indépendamment du degré réel de compréhension du système. La conversation devient une forme d’accès et de pilotage des dispositifs, même lorsque l’interprétation du contexte, des intentions ou des enjeux demeure partielle, approximative ou simulée — du moins à ce stade.
Tout ceci ouvre bien évidemment la voie (la voix :-) à l'IA comme interlocuteur autonome, le grand remplacement ! Certain(e)s ont déjà noué des relations conversationnelles avec des dispositifs sans corps, dialogué avec une entité sans aucune subjectivité, je crois que c'est une première dans l'histoire de l'humanité. Quid de l'authenticité ?
- Dans l'oralité primaire, la parole est authentique par nature : quelqu'un la prononce, hic et nunc ;
- Dans l'oralité secondaire, elle est médiatisée : on sait qu'elle passe par un dispositif, mais on connaît la source ;
- Dans l'oralité tertiaire, bien qu'elle puisse sembler authentique (naturelle, fluide, contextuelle), elle est artificielle, générée automatiquement, calculée, prédite, synthétisée..., mais on ne peut plus la distinguer sans une expertise technique !
Croyez-vous que cela sera sans effets sur ce que nous sommes, sur notre mémoire ?
1. L'oralité primaire reposait sur la mémoire humaine, incarnée et vivante, une mémoire biologique, portée par des corps :
- Sélective par nécessité (on ne peut tout retenir)
- Transformative (chaque récitation modifie légèrement)
- Collective (validée par le groupe, les témoins)
- Mortelle (elle disparaît avec ceux qui la portent)
- Techniques de stabilisation : formules, rythmes, répétitions, généalogies, chants
- Oubli : naturel, inévitable, parfois volontaire (effacement rituel)
- La mémoire orale est vivante au sens propre : elle respire, elle varie, elle s'adapte. Homère n'est jamais exactement le même d'une récitation à l'autre.
2. L'oralité secondaire externalisait et contrôlait la mémoire, une mémoire technique, enregistrée sur supports :
- Fixes ou reproductibles (le même enregistrement radio rejoué à l'identique)
- Centralisés (archives institutionnelles : INA, bibliothèques)
- Objet de sélections et de curation (tout n'est pas archivé)
- Matériellement périssables (bandes magnétiques qui se dégradent)
Pour la première fois, on peut écouter des personnes disparues depuis longtemps : exemple avec la voix de Dreyfus en 1912, sans remonter jusqu'au phonotaugraphe, un siècle avant ma naissance ! La voix enregistrée détache ainsi la parole du corps vivant.
Mémoires d'un côté (institutionnelles, commerciales, personnelles, etc.), oublis de l'autre : techniques (obsolescence des formats), économiques (ce qui n'est pas rentable n'est pas conservé), politiques (censure, destruction d'archives, etc.) et ainsi de suite.
En fait, l'oralité secondaire institue une hiérarchie entre mémoire "légitime" (l'archive officielle) et "illégitime" (ce qui n'est pas enregistré n'existe pas vraiment).
3. L'oralité tertiaire repose sur une mémoire algorithmique paradoxale qui :
- N'oublie rien (tout est tracé),
- Oublie tout (ce qui n'est pas indexé n'existe pas),
- Invente des souvenirs (hallucinations, biais de corpus)...
Nous pourrions la définir comme une mémoire computationnelle, à la fois totale et volatile, insaisissable dans le cloud :
- Stockage apparemment infini
- Instantanément accessible (recherche full-text)
- Fragmentée et décontextualisée
- Algorithmiquement gouvernée
Donc, ne rien oublier d'un côté (en théorie) :
- Chaque message vocal WhatsApp peut être conservé
- Transcription automatique de toutes les visioconférences
- Historique complet des interactions avec l'IA
- Même ce qu'on voudrait effacer persiste (screenshots, caches)
Tout oublier de l'autre (en pratique) :
- Oubli par submersion : trop de données = impossibilité de retrouver
- Oubli algorithmique : ce que l'algorithme ne référence pas n'existe pas
- Oubli structurel : les plateformes ferment, les liens meurent (link rot)
- Oubli économique : on paie pour stocker, sinon suppression automatique
En passant par les inventions pures et simples (fausses ou altérées) :
- Hallucinations des LLM qui "se souviennent" de faits inexistants
- Biais de corpus : surreprésentation de certaines voix, effacement d'autres
- Deepfakes audio : création de paroles jamais prononcées
- Photos "améliorées" par IA qui modifient le passé
*
Où est l'autorité dans tout ça ? Qui fait autorité quand la parole est générée ?
- Le concepteur du modèle ?
- Le corpus d'entraînement ?
- L'algorithme de ranking ?
- L'utilisateur qui parle ou déclenche ?
La chaîne de responsabilité se dissout. Fondamentalement, l'oralité était dialogique et présentielle : parler, c'est s'adresser à quelqu'un. Mais avec l'IA conversationnelle, on parle avec qui ?
Question ouverte qui appelle un nouveau concept : la textautoralité, à savoir la reconfiguration du régime d’auteur dans la textualité, qu’elle soit écrite ou orale, dès lors que la production des énoncés est médiée, assistée ou générée par des dispositifs techniques et algorithmiques.
*
Dans le prolongement heuristique du continuum décrit par Walter J. Ong — oralité primaire, chirographie, typographie, oralité secondaire —, il devient possible de désigner l’émergence d’un cinquième régime, que l’on pourrait nommer "oralité tertiaire". Dans ce régime, l’oral et l’écrit cessent d’être des ordres distincts pour devenir opérationnellement fusionnés : la parole est continûment transcrite, reformulée et archivée, tandis que l’écriture est oralisée, performée et réénoncée.
On notera ici une asymétrie décisive : la chirographie et la typographie ont profondément transformé l’écriture, mais sans en altérer la nature fondamentale — l’écriture demeure un geste humain intentionnel, stabilisé et attribuable ; en revanche, le passage de l’oralité secondaire à une oralité tertiaire générative affecte la parole dans son ontologie même, en dissociant la voix de la présence et du locuteur. Ici l’asymétrie n’est pas quantitative, elle est qualitative.
Cette fusion, rendue possible par les dispositifs numériques et les modèles de langage, ne relève pas d'une simple convergence médiatique. Elle repose sur une convertibilité automatique et bidirectionnelle des modalités langagières : tout énoncé oral peut être instantanément transformé en texte, tout texte peut être synthétisé en parole, et cette conversion n'est plus le fait d'un travail humain de transcription ou de lecture, mais d'un traitement algorithmique qui interprète, normalise, adapte et régénère.
*
Parmi les effets les plus profonds — et souvent sous-estimés — de ce nouveau régime communicationnel figure le multilinguisme instantané, qui déplace radicalement la compétence linguistique du sujet vers l’infrastructure algorithmique, et transforme la langue en service : pouvoir soumettre à l'IA n'importe quel texte dans pratiquement n'importe quelle langue pour qu'elle vous réponde, quasi en temps réel, en l'analysant dans la langue de votre choix n'est pas anodin. C'est une mutation du rapport humain aux langues, et donc au monde.
Jusqu’à une période très récente, la barrière des langues constituait l’une des dernières frontières humaines jugées aussi infranchissables que les grandes chaînes montagneuses : apprendre une langue demandait des années, la traduction exigeait des compétences rares, et toute communication translinguistique impliquait des coûts, des délais, des pertes de sens et de contexte. La langue n’était pas seulement un outil : elle demeurait une appartenance, une mémoire, un capital.
Or la traduction — désormais couplée à l’analyse, la reformulation et l’adaptation de registre — bascule dans un régime de convertibilité quasi immédiate. Ce que l’on externalise, ce n’est pas seulement la traduction, mais une part de la compétence d’énonciation elle-même : choisir les mots, calibrer le ton, expliciter des implicites, ajuster les formules de courtoisie, "faire passer" un message. Dès lors, l’enjeu n’est pas simplement pratique. Il est anthropologique, avec des impacts majeurs :
A) Déplacement du « capital linguistique »
Historiquement, parler une ou plusieurs langues constituait un capital social : accès à l’éducation, à la mobilité, au prestige, au pouvoir. Avec le multilinguisme instantané, une partie de ce capital se déplace : du locuteur vers le dispositif, de la compétence vers l’infrastructure. On peut espérer une démocratisation partielle de l’accès (information, services, négociation), mais au prix d’une dépendance accrue envers des systèmes privés, leurs modèles, leurs politiques et leurs biais.
B) Universalisation de la conversation, mais pas des cultures
La traduction abolit les barrières linguistiques, elle n’abolit pas les mondes culturels. Implicites, normes de politesse, hiérarchie, humour, sous-entendus, formes de preuve, styles d’argumentation : tout cela ne se traduit pas "automatiquement", même si cela peut se reformuler. D’où un paradoxe : compréhension linguistique accrue, mais malentendus culturels renforcés, précisément parce que la fluidité donne l’illusion de comprendre vraiment. La transparence apparente de la traduction devient un piège cognitif.
C) Nouveaux régimes de confiance
Quand un humain traduit, on sait (au moins en principe) qui a interprété. Quand un modèle traduit, le sens passe par un filtre opaque : choix lexicaux, atténuation, intensification, neutralisation, déplacement de registre. On gagne une confiance pratique ("ça marche"), mais on perd une part de contrôle épistémique ("qu’est-ce qui a été réellement dit ?"). La traduction devient alors un acte politique : orientation, cadrage, euphémisation, biais, voire normalisation.
D) Reconfiguration de l’identité linguistique
Nos langues ne sont pas seulement des outils : elles portent une mémoire, un rythme, des gestes, une appartenance. Quand on peut « parler toutes les langues » via un dispositif, on observe une désidentification partielle (je parle sans parler), une hybridation accélérée (calques, mélanges, registres importés) voire une dépossession : on n’habite plus sa langue, on l’administre via une interface. La langue devient un paramètre réglable et non plus un milieu vécu.
E) Accélération de la circulation des récits et des conflits
Le multilinguisme instantané rend possible la diffusion immédiate de récits politiques, la propagande et la désinformation multilingues, la circulation transfrontalière de slogans et de "mèmes", ainsi que la mobilisation rapide de communautés diasporiques. Anthropologiquement, cela peut renforcer une synchronisation émotionnelle globale, une polarisation transnationale, et une compétition des récits à l’échelle planétaire. L’espace public se mondialise, mais sous des logiques de vitesse et de contagion.
F) Transformation de l’apprentissage et de la transmission
Deux scénarios coexistent : déclin de la motivation à apprendre (pourquoi perdre mon temps si le système le fait à ma place ?) et augmentation paradoxale (l’outil devient tuteur, correcteur, immersion). Mais l’effet profond est ailleurs : on externalise la compétence, on apprend moins par incorporation, davantage par délégation. On devient un orchestrateur de langues plus qu’un locuteur, mais cela transforme aussi le rapport au savoir.
G) Risques d'uniformisation
La peur évidente est celle d’un "globish algorithmique" : une convergence de toutes les langues vers des tournures standardisées, une neutralisation des aspérités, une politesse “internationale”, un ton moyen. Toutefois, le risque n'est pas automatique, ni mécanique : il dépend des corpus d’entraînement, des langues mieux servies, des variétés reconnues (dialectes, sociolectes), des registres favorisés (administratif, neutre, poli) et des objectifs des plateformes.
Il y aura donc simultanément un mouvement d’uniformisation (effet plateforme) et, potentiellement, un mouvement de revitalisation (si les outils servent effectivement les langues minorées, leurs registres et leurs nuances). Anthropologiquement, la lutte des langues ne disparaît pas : elle se déplace. Elle devient une lutte pour les données, les modèles, les infrastructures — et, au fond, pour le droit de faire exister des mondes dans et par la langue.
*
Nous pouvons enfin identifier trois traits structurants de ce que j’appellerais l’oralité tertiaire :
1. La disparition (ou la dématérialisation) du support comme ancrage symbolique
Le langage ne s’inscrit plus prioritairement via un support matériel identifiable — voix incarnée, manuscrit, page imprimée ou enregistrement analogique — mais dans une infrastructure computationnelle. Il existe désormais comme ensemble de données manipulables en temps réel : tokens, vecteurs, embeddings, distribués dans des architectures de calcul et de stockage. Le langage perd ainsi son ancrage matériel stable pour devenir un flux processuel, sans état définitif.
2. Une énonciation sans locuteur humain
Alors que les régimes antérieurs supposaient toujours un sujet parlant — même médiatisé par la technique —, l’oralité tertiaire rend possible la production d’énoncés sans énonciateur humain direct. Voix synthétiques et textes générés ne reproduisent pas une parole préexistante : ils procèdent d’une simulation calculée. L’instance d’énonciation devient indécidable, invérifiable, et avec elle la source de l’autorité discursive.
3. Une contextualisation algorithmique des énoncés
Contrairement aux configurations précédentes qui supposaient une certaine universalité de l'énoncé — un manuscrit copié reste identique pour tous ses lecteurs, un livre imprimé est le même dans toutes les mains, une émission radiophonique est entendue simultanément par tous —, l’oralité tertiaire institue une variation systématique selon le contexte d’usage. Les énoncés sont générés à la demande, adaptés au destinataire, au moment et au dispositif, selon des paramètres algorithmiques plus ou moins opaques. La parole et l’écriture cessent d’être des objets stables pour devenir des productions situationnelles.
*
Cette triple transformation — dématérialisation, génération automatique, personnalisation — produit une mutation anthropologique dont l'ampleur reste à mesurer. L'oralité tertiaire ne se contente pas de modifier les modalités de communication : elle reconfigure les conditions mêmes de la mémoire (qui n'est plus ni incarnée ni archivée, mais computée), de l'autorité (qui n'est plus localisable dans un auteur ou une institution, mais distribuée dans le système algorithmique), et de la crédibilité (qui n'est plus attestée par un témoin ou garantie par un document, mais produite comme effet de plausibilité statistique).
Le langage, depuis toujours bien commun de l’humanité, s’inscrit désormais dans des infrastructures techniques privatisées, où écriture et parole ne relèvent plus exclusivement d’un acte souverain du sujet, mais d’un processus de validation au sein de systèmes génératifs.
*
Ainsi, nous assistons en direct à une refonte de rupture instaurant un binôme textualité/textoralité.
Ce binôme, qui structurait jusqu’ici l’analyse des pratiques langagières contemporaines, reposait sur une distinction encore opératoire entre deux régimes : d’un côté, une textualité héritée de l’écrit, stabilisée, attribuable, lisible comme objet ; de l’autre, une oralité médiatisée, performative, située, mais toujours indexée à une source humaine identifiable. Or ce partage devient aujourd’hui insuffisant pour rendre compte des formes effectives de production, de circulation et de réception du langage.
Dans le régime émergent, l’oral et l’écrit ne constituent plus deux modalités distinctes entre lesquelles on passe, mais deux états transitoires d’un même continuum computationnel. La parole est pensée comme texte latent, immédiatement transcriptible, analysable, résumable, traduisible ; l’écriture est conçue comme parole potentielle, immédiatement oralisable, performable, dialogisable. Ce qui circule n’est plus prioritairement un texte ou une voix, mais une matière langagière indifférenciée, manipulée par des systèmes capables d’en changer la forme, le ton, le registre et la destination.
Or cette refonte ne concerne pas seulement les formes du langage ; elle engage aussi profondément ses conditions d’énonciation. Lorsque des énoncés sont produits sans locuteur humain direct, reformulés sans intention explicite, diffusés sans auteur assignable et personnalisés sans responsabilité identifiable, c’est la notion même de l’auctorialité qui s'en trouve déplacée. L’auteur n’est plus une origine, mais une fonction parmi d’autres dans une chaîne de génération, de sélection et de validation.
Enfin, parce que ces énoncés ne cessent d’être réécrits, reformulés, résumés, traduits, hiérarchisés et recontextualisés, ils ne peuvent plus être appréhendés comme des objets langagiers isolés. Chaque production s’inscrit dans une stratification dynamique de versions, de traces et de transformations, visibles ou invisibles.
Ainsi, la refonte du binôme textualité/textoralité ne correspond ni à une disparition de l’écrit ni à un retour de l’oral, mais à l’émergence d’un nouveau régime communicationnel, où le langage devient à la fois génératif, stratifié et gouverné. Ce régime n’abolit pas les pratiques humaines de la parole et de l’écriture, mais les inscrit dans un environnement où l’humain n’est plus l’unique producteur du langage, ni le seul garant de son sens, de son origine ou de sa véracité.
C’est à partir de cette situation — inédite par son ampleur, sa vitesse et son degré d’automatisation — qu’il devient nécessaire de repenser conjointement textualité, oralité, auctorialité et mémoire, non plus comme des catégories séparées, mais comme les dimensions interdépendantes d’un même écosystème sémiotique en mutation.
*
En m'appuyant sur ma propre conception du palimptexte, je proposerais les définitions suivantes de ces deux concepts :
Palimptextualité
Propriété d’un objet sémiotique (numérique ou médiatique) d’exister comme une stratification de versions, de reprises, de transformations et de filtrages, où aucune couche n’efface totalement les précédentes, même si certaines sont invisibles ou externalisées.
Palimptextoralité
Régime palimptextuel propre à l’oralité médiatisée, où les strates ne se donnent pas comme des révisions visibles (brouillons, historique), mais s’accumulent par répétition, cadrage, montage, reformulation et recirculation (clips, citations, sous-titres), et par leur inscription dans la mémoire individuelle et collective.
Textualité
1) Textualité héritée (humaine, intentionnelle)
Régime de la littératie (chirographie, ou "écriture manuscrite" / typographie) dans lequel un énoncé existe comme texte stabilisé : inscription durable, relisible, transmissible, dont la syntaxe, la ponctuation, l'organisation résultent d’une mise en forme réfléchie. La textualité héritée suppose une objectivation de l’énoncé (le texte devient un objet), une relative unicité (un "même" texte pour des lecteurs multiples), et une auctorialité en principe assignable, même lorsque cette attribution est collective ou institutionnelle. Dans ce cadre, l’écrit demeure structurellement second : il fixe et organise après-coup ce que la parole énonce.
2) Textualité machinique (algorithmique, computationnelle)
Dans le nouveau régime hybride, la textualité cesse d’être une catégorie monolithique : elle devient l’un des états transitoires d’un continuum où le texte n’est plus d’abord un objet stable, mais une matière langagière immédiatement manipulable : transcriptible, analysable, résumable, traduisible, reformulable, et parfois générée sans auteur humain direct. Elle se définit moins par la fixation que par la convertibilité, la contextualisation et la stratification : le texte tend à être une couche parmi d’autres dans une dynamique de versions, de filtrages et de transformations (palimptextualité), au sein d’infrastructures techniques où l’écriture perd son ancrage matériel et son état définitif.
Régime sémiotique émergent dans lequel la parole et l’écrit cessent d’être deux ordres distincts pour devenir opérationnellement interconvertibles. La textoralité correspond au versant oral du continuum tertiarisé : l’énoncé y existe comme parole potentielle continûment oralisée, performée, simulée et rendue dialogique par des dispositifs algorithmiques (synthèse vocale, assistants, clonage, interfaces conversationnelles), tout en étant simultanément conçu comme texte latent (transcription, indexation, résumé, traduction).
Ce régime se distingue des formes antérieures d’oralité : il ne renvoie ni à l’authenticité hic et nunc de l’oralité primaire, ni à la reproduction médiatisée d’une source identifiable propre à l’oralité secondaire. La textoralité institue au contraire une énonciation possible sans locuteur humain direct, et fait de la conversation une interface standard, indépendamment du degré réel de compréhension. Pôle du flux, de la vitesse et de la performativité, elle est structurellement instable et contextualisée, produite à la demande, personnalisée par des paramètres algorithmiques, et susceptible d’entrer dans une stratification dynamique (palimptextoralité) par montage, cadrage, reformulation et recirculation.
Une problématique transversale à ce qui précède est celle de l’auctorialité — c’est-à-dire des conditions d’attribution, d’autorité et de responsabilité d’un énoncé — dans l’ensemble des régimes langagiers contemporains, qu’ils soient textuels ou oraux, stabilisés ou stratifiés, à savoir la reconfiguration du régime d’auteur que j'ai nommée plus haut :
Textautoralité
Désigne la manière dont la production des énoncés devient distribuée entre plusieurs instances (auteur humain, dispositifs de capture et de conversion, plateformes, modèles génératifs, règles de visibilité), de sorte que l’auteur n’est plus seulement une origine, mais un opérateur : celui qui déclenche, cadre, sélectionne, édite, valide ou assume un énoncé dont une part peut être automatisée, reformulée ou générée.
Dans la textualité héritée, la textautoralité reste marginale (elle concerne surtout l’édition et l’institution). Dans la textualité machinique et la textoralité, elle devient structurante : l’énonciation peut être produite sans locuteur humain direct, puis attribuée, "signée" ou endossée après coup. Elle se complexifie ultérieurement dans les formes palimptextuelles et palimptextorales, puisque l’énoncé n’existe plus comme un objet unique, mais comme une stratification de versions, de montages et de filtrages, rendant l’origine, l’intention et la responsabilité plus difficiles à localiser.
*
L'ensemble de cette architecture contemporaine des régimes du langage fera l'objet d'un article académique à publier en 2026.
*
Conclusion
Discernement et confiance : le nœud anthropologique du régime tertiarisé
Pour que cette architecture des régimes du langage ne reste pas un schéma abstrait, il faut nommer le point où tout se joue, dans la vie quotidienne : tirer le vrai du faux dans le chaos informationnel. Or ce travail n’est pas seulement épistémique ; il est anthropologique, parce qu’il engage notre manière d’habiter le monde social. Deux notions deviennent alors indissociables : le discernement et la confiance, deux faces d’une même médaille.
Dans les régimes primaire et secondaire, le discernement était soutenu par des ancrages matériels et sociaux relativement stables. Dans le régime tertiaire, ces ancrages s’effacent simultanément.
Le discernement devient une tâche infinie et incertaine : un texte ou une parole peut être généré par un humain, assisté par une IA, co-produit, ou entièrement autonome — sans que le récepteur puisse le savoir a priori. La fluidité des versions et la personnalisation algorithmique rendent toute citation instable : ce que j’ai lu hier peut avoir changé aujourd’hui, ou être différent de ce que vous lisez en même temps que moi.
La multimodalité (texte, voix synthétique, image, vidéo générée) multiplie les surfaces de projection, mais aussi les points d’entrée pour la manipulation (deepfakes, reformulations subtiles, hallucinations plausibles). Le vrai n’est plus garanti par la fixité du support ni par l’identité vérifiable de l’émetteur, mais par une chaîne opaque de calculs statistiques opérés par des modèles privés.
La confiance, quant à elle, se trouve déracinée : à qui faire confiance quand l’auteur est dilué (prompt + modèle + corpus + éditeur) ? à quoi faire confiance quand le texte ou la voix n’a plus de corps, de geste, de contexte stable ?
Les plateformes deviennent les nouveaux garants : non plus la personne, non plus le document, mais l’algorithme et l’entreprise qui le détient. Nous déléguons le discernement aux systèmes de modération, aux scores de fiabilité, aux labels « généré par IA » — qui eux-mêmes sont produits par les mêmes infrastructures.
Ce déplacement est profondément perturbant : nous passons d’une confiance intersubjective (fondée sur la relation humaine ou sur l’artefact partagé) à une confiance infrastructurée (déléguée à des systèmes socio-techniques obscurs). Le discernement n’est plus un acte souverain de la raison critique face à un objet stable ; il devient une navigation permanente dans un flux de probabilités, où le doute est structurel.
Or, sans confiance minimale, le lien social se défait. Si tout peut être généré, reformulé, personnalisé à la demande et à l'infini, alors rien ne porte plus la marque irréductible de l’intention humaine. La parole perd sa performativité (elle n’engage plus vraiment quelqu’un), l’écrit perd sa force probante (il n’atteste plus vraiment quelque chose).
Le risque ultime n’est pas seulement l’erreur ou la manipulation, mais la lassitude : un monde où le discernement exige une vigilance épuisante, et où la confiance ne peut plus se déposer nulle part sans arrière-pensée. Nous risquons de nous replier soit dans le cynisme généralisé (« tout est faux »), soit dans la crédulité tribale (« je crois seulement ce qui vient de ma bulle »).
Pour habiter dignement ce régime tertiarisé, il nous faut inventer de nouvelles pratiques et de nouvelles institutions du discernement et de la confiance : via une transparence radicale des chaînes génératives (traçabilité des prompts, des modèles, des corpus) ? des marquages inviolables et vérifiables de l’origine humaine ou automatisée ? une éducation massive à la lecture critique des outputs algorithmiques ? une gouvernance publique ou collective des infrastructures langagières, de sorte que le langage ne devienne pas un service privé captif ?
Ces questions ne sont pas techniques, elles sont politiques. Car ce qui est en jeu, au fond, ce n'est pas seulement la capacité de distinguer le vrai du faux, mais le maintien d'un espace commun où la parole fait encore acte, où l'écrit fait encore preuve, où le langage demeure un bien partagé et non une ressource privatisée.
L'oralité tertiaire n'est pas la fin de la communication humaine, mais elle en transforme radicalement les conditions d'exercice. Elle nous place devant un choix de civilisation : soit nous acceptons de devenir des validateurs passifs d'énoncés générés, déléguant notre souveraineté langagière aux infrastructures algorithmiques ; soit nous réinventons collectivement les conditions matérielles, institutionnelles et éducatives d'une communication qui reste fondamentalement humaine — même quand elle est techniquement médiée.
Le nouveau régime communicationnel de l'humanité exige de nous que nous réapprenions à faire confiance intelligemment, et à discerner sans nous épuiser. C'est peut-être la compétence critique cardinale du XXIe siècle : non pas résister à la technique, mais refuser qu'elle dissolve ce qui fait de nous des êtres de parole — c'est-à-dire des êtres responsables, adressables, capables de s'engager par ce qu'ils disent.
Car si la parole et l'écriture cessent d'engager, si elles ne sont plus que des flux calculés, alors c'est la possibilité même du politique qui s'efface. Et avec elle, notre capacité à construire ensemble un monde commun.
P.S. Pour alimenter ma réflexion et rédiger ce billet, j'ai bien évidemment commencé par convoquer l'IA, en accumulant en trois jours de questions-réponses - qui amènent à leur tour d'autres questions-réponses dans un cycle sans fin -, quelques centaines de pages et plus d'une centaine de milliers de mots, avant même d'avoir écrit une seule ligne ! Sans pilotage, les LLM partent dans tous les sens...
Par ailleurs, d'aucun(e)s pourraient me reprocher l'emploi de plusieurs néologismes. Le fait est que la création d'un néologisme n'est jamais un geste gratuit : elle correspond à la nécessité de nommer une configuration nouvelle pour la rendre pensable. Or la fusion contemporaine de l’oral et de l’écrit, rendue possible par l'IA et les grands modèles de langage, constitue précisément une situation sans précédent historique — du moins sous ces formes, à cette échelle et avec un tel degré d’automatisation.
Dans ce contexte, j'estime qu'il ne s'agit pas de coquetteries lexicales, mais d'une nécessité conceptuelle permettant de nommer un régime hybride nouveau, dont les implications cognitives, sociales et politiques ne peuvent être conçues ni élaborées avec les catégories héritées. Nommer, ici, n’est pas embellir le réel : c’est rendre visible une transformation majeure de notre rapport au langage, à la mémoire et au discernement.


Aucun commentaire:
Enregistrer un commentaire