lundi 15 décembre 2025

Le nouveau régime communicationnel de l'humanité

page IA

IA inside

[Dernier billet de l'année 2025]


Tout juste trois ans après la sortie de ChatGPT, à la veille de 2026, l'IA bouleverse profondément nos sociétés, et notamment le langage. 

Pour la première fois dans l’histoire humaine, la parole et l’écriture peuvent être produites, converties et reformulées automatiquement, à grande échelle, par des systèmes sans locuteur humain identifiable. Ce bouleversement ne relève pas seulement de la technologie : il modifie nos manières de produire du sens, de faire mémoire et d’attribuer l’autorité des énoncés.

Le schéma proposé, intitulé Architecture contemporaine des régimes du langage, distingue volontairement les conditions médiatiques de production langagière des régimes sémiotiques de signification, afin d’éviter toute confusion entre dispositifs techniques et structures de sens.

Dans le but de comprendre le nouveau régime communicationnel qui est en train d'émerger, voire de s'imposer, souvent sans que nous en ayons pleinement conscience, ce billet se propose de nommer et d'organiser ce nouveau paysage, marqué par la fusion opérationnelle de l’oral et de l’écrit, la stratification des textes et des échanges, et la reconfiguration de la fonction d’auteur à l’ère des systèmes génératifs.

*

L'oralité est le premier moyen d'expression de l'humanité. Pendant des millénaires, les sociétés humaines ont transmis leurs savoirs, leurs croyances et leur mémoire collective exclusivement par la parole, à travers les récits, les mythes, les chants, les formules rituelles. Dans ces cultures d’oralité primaire, la parole n’est pas un simple véhicule de l’information : elle est un acte, un événement inscrit dans une situation sociale précise, fondé sur la mémoire vivante et la relation entre les locuteurs.

L'écriture n’apparaît que vers 3300 av. J.-C. en Mésopotamie, alors que le langage oral existe depuis des dizaines de milliers d’années. Son invention marque une transformation décisive, sans faire disparaître l’oralité, qui reste fondamentale : elle précède l’apprentissage de l'écriture chez l’enfant et demeure centrale dans la vie quotidienne. Tandis que la parole est une faculté naturelle de l’espèce humaine, le langage oral une capacité biologique universelle, l'écriture est une technologie artificielle (ancêtre de l'IA ?), un dispositif construit, appris, historiquement situé, qui rend la parole visible et durable, modifie la mémoire et transforme la pensée (analyse, abstraction, distance critique).

Donc, pendant la majeure partie de l’histoire humaine, la culture orale est l'infrastructure totale de la communication humaine :

  • la mémoire est portée par des personnes (anciens, conteurs, prêtres), 
  • le savoir circule par récits, chants, rituels, 
  • la crédibilité est souvent liée au dire (« je l’ai entendu de… »). 

Pour stabiliser le souvenir, les sociétés développent différentes techniques : répétitions, rythmes, proverbes, généalogies, formules. L’oralité n’est plus «primitive», elle est hautement organisée. 

Avec l'arrivée de l'écriture (tablettes, hiéroglyphes, alphabets), on bascule du souvenir vivant à l’archive, vu qu'il n'y a pas d'écriture sans support, elle n'existe que matérialisée.

De plus, le support n’est pas un simple réceptacle neutre : il contraint la forme (longueur, linéarité, segmentation), oriente les usages (archive, circulation, effacement), hiérarchise le temps (durable / éphémère). Écrire sur pierre n'est pas écrire sur papier ; écrire sur une tablette n'est pas écrire sur parchemin. 

Chaque support encode sa propre politique d'écriture, de même qu'il modèle le geste d’écrire :

  • Tablette d'argile → écriture incisée, lente, comptable.
  • Parchemin → écriture réinscriptible, palimpseste possible.
  • Papier → écriture abondante, brouillon, diffusion.
  • Écran → écriture réversible, fragmentée, versionnée.
Le geste n'est pas le même : tracer, gratter, effacer, copier, coller, générer... Écrire signifie aussi composer avec la résistance du support, et lire un texte est indissociable du support (du medium dira-t-on aujourd'hui).

On lit une surface, une organisation spatiale, une typographie, une interface. Lire un rouleau, un codex, une page imprimée ou un fil numérique n’engage pas la même attention, la même mémoire, la même temporalité.

Le mode de lecture est inscrit dans le support, qui prescrit une forme de lecture :

  • Rouleau → lecture continue, orale, collective.
  • Codex → lecture discontinue, silencieuse, comparative.
  • Livre imprimé → lecture linéaire stabilisée.
  • Écran → lecture fragmentée, exploratoire, zapping.

Ainsi, chaque technologie de l’écriture fabrique un type de lecteur, de même que le support inscrit une anticipation du lecteur dans l’acte d’écrire. Hier un support-matière, aujourd'hui un support-dispositif :

  • plateformes
  • interfaces (chat, fil, stories),
  • classements (ranking),
  • formats (limites, templates),
  • modèles (IA, LLM),
  • règles (modération, visibilité)
  • multimodalité (audio, vidéo), etc. 

*

Ce n'est pas la première fois, dans l'humanité, que l'on assiste à une hybridation oral/écrit, par contre la fusion contemporaine, sous ces formes, à cette échelle et avec un tel degré d’automatisation grâce à l'IA et aux grands modèles de langage, constitue une situation sans précédent historique, où la conversion et la co-production de la parole et de l’écrit deviennent automatiques, massives, personnalisées et génératives. Aucun des cadres philosophiques et sémiotiques existants ne suffit isolément : le régime actuel exige une recomposition théorique capable de penser la convertibilité, la stratification et la gouvernance algorithmique des signes.

Dans le régime communicationnel classique, nous avions deux ordres distincts, qui entretenaient une asymétrie productive :

  1. L'oral précède : les humains parlent avant d’écrire, l'enfant babille avant de tracer des lettres, l'oral a ses hésitations, ses reprises, son rythme ;
  2. L'écriture fixe, et change radicalement ce que peut faire une société avec le langage (mémoire, loi, savoir, pouvoir) : l'écrit capture, stabilise, permet la relecture, a une syntaxe élaborée, une ponctuation, etc.

Cette distinction structurait nos rapports au langage : écrire était un acte second, une mise en forme réfléchie de la pensée. Passer de l'un à l'autre demandait des efforts, des ressources, de l'argent et du travail (sténographie, secrétariat, transcription), alors qu'aujourd'hui nous avons un effacement des frontières, la conversion devient instantanée, automatique, bidirectionnelle :

Oral → Écrit

  • Je dicte un message, il apparaît écrit (reconnaissance vocale)
  • Une réunion Zoom génère sa transcription automatique
  • Un podcast produit son résumé textuel

Écrit → Oral

  • Je tape une question, l'IA me répond en voix synthétique
  • Un article devient un podcast via text-to-speech
  • Un prompt génère un discours oral crédible

Nouveauté radicale : ce n'est plus un humain qui convertit, c'est le système, la plateforme. Et cette conversion n'est pas neutre, elle est interprétative, génératrice, transformatrice, avec trois niveaux de convertibilité (pour l'instant) :

  1. Convertibilité technique (genre traduction automatique text-to-speech / speech-to-text
  2. Convertibilité modale : l'indifférence au medium (pour un LLM, aucune différence entre oral et écrit, tout est token, vecteur, probabilité)
  3. Convertibilité existentielle : l'indifférence au sujet (effacement de la source, qui parle, qui écrit ?)
En fait, la parole n'est plus l'indice d'une présence (comme dans l'oralité primaire), ni la médiatisation d'une source identifiable (comme dans l'oralité secondaire). Elle est pure performativité machinique.

Je n'aime pas du tout ce terme de "machinique" ! Jusqu'à présent le binôme oral-écrit était réservé aux humains, pas aux machines. Or comment qualifier une parole qui n'a jamais été produite ni prononcée par aucun humain, si ce n'est "parole machinique" ?

Dans un régime d'oralité secondaire nous pouvions concevoir « la machine reproduit de la parole humaine enregistrée », mais là nous sommes face à une voix synthétique qui mime l'humain, ses intonations, des émotions (certes simulées : joie, empathie, urgence...), voire au clonage vocal : je m'entends dire quelque chose que je n'ai jamais dit (deepfakes, arnaques vocales) !!!

Quant aux assistants conversationnels actuels, ils révèlent déjà un trait décisif du nouveau régime communicationnel : l’interaction dialoguée tend à s’imposer comme interface standard, indépendamment du degré réel de compréhension du système. La conversation devient une forme d’accès et de pilotage des dispositifs, même lorsque l’interprétation du contexte, des intentions ou des enjeux demeure partielle, approximative ou simulée — du moins à ce stade.

Tout ceci ouvre bien évidemment la voie (la voix :-) à l'IA comme interlocuteur autonome, le grand remplacement ! Certain(e)s ont déjà noué des relations conversationnelles avec des dispositifs sans corps, dialogué avec une entité sans aucune subjectivité, je crois que c'est une première dans l'histoire de l'humanité. Quid de l'authenticité ?

  • Dans l'oralité primaire, la parole est authentique par nature : quelqu'un la prononce, hic et nunc ;
  • Dans l'oralité secondaire, elle est médiatisée : on sait qu'elle passe par un dispositif, mais on connaît la source ;
  • Dans l'oralité tertiaire, bien qu'elle puisse sembler authentique (naturelle, fluide, contextuelle), elle est artificielle, générée automatiquement, calculée, prédite, synthétisée..., mais on ne peut plus la distinguer sans une expertise technique !

Croyez-vous que cela sera sans effets sur ce que nous sommes, sur notre mémoire ?

1. L'oralité primaire reposait sur la mémoire humaine, incarnée et vivante, une mémoire biologique, portée par des corps :

  • Sélective par nécessité (on ne peut tout retenir)
  • Transformative (chaque récitation modifie légèrement)
  • Collective (validée par le groupe, les témoins)
  • Mortelle (elle disparaît avec ceux qui la portent)
  • Techniques de stabilisation : formules, rythmes, répétitions, généalogies, chants
  • Oubli : naturel, inévitable, parfois volontaire (effacement rituel)
  • La mémoire orale est vivante au sens propre : elle respire, elle varie, elle s'adapte. Homère n'est jamais exactement le même d'une récitation à l'autre.

2. L'oralité secondaire externalisait et contrôlait la mémoire, une mémoire technique, enregistrée sur supports :

  • Fixes ou reproductibles (le même enregistrement radio rejoué à l'identique)
  • Centralisés (archives institutionnelles : INA, bibliothèques)
  • Objet de sélections et de curation (tout n'est pas archivé)
  • Matériellement périssables (bandes magnétiques qui se dégradent)

Pour la première fois, on peut écouter des personnes disparues depuis longtemps : exemple avec la voix de Dreyfus en 1912, sans remonter jusqu'au phonotaugraphe, un siècle avant ma naissance ! La voix enregistrée détache ainsi la parole du corps vivant.

Mémoires d'un côté (institutionnelles, commerciales, personnelles, etc.), oublis de l'autre : techniques (obsolescence des formats), économiques (ce qui n'est pas rentable n'est pas conservé), politiques (censure, destruction d'archives, etc.) et ainsi de suite.

En fait, l'oralité secondaire institue une hiérarchie entre mémoire "légitime" (l'archive officielle) et "illégitime" (ce qui n'est pas enregistré n'existe pas vraiment).

3. L'oralité tertiaire repose sur une mémoire algorithmique paradoxale qui :

  • N'oublie rien (tout est tracé),
  • Oublie tout (ce qui n'est pas indexé n'existe pas),
  • Invente des souvenirs (hallucinations, biais de corpus)...

Nous pourrions la définir comme une mémoire computationnelle, à la fois totale et volatile, insaisissable dans le cloud :

  • Stockage apparemment infini
  • Instantanément accessible (recherche full-text)
  • Fragmentée et décontextualisée
  • Algorithmiquement gouvernée

Donc, ne rien oublier d'un côté (en théorie) :

  • Chaque message vocal WhatsApp peut être conservé
  • Transcription automatique de toutes les visioconférences
  • Historique complet des interactions avec l'IA
  • Même ce qu'on voudrait effacer persiste (screenshots, caches)

Tout oublier de l'autre (en pratique) :

  • Oubli par submersion : trop de données = impossibilité de retrouver
  • Oubli algorithmique : ce que l'algorithme ne référence pas n'existe pas
  • Oubli structurel : les plateformes ferment, les liens meurent (link rot)
  • Oubli économique : on paie pour stocker, sinon suppression automatique

En passant par les inventions pures et simples (fausses ou altérées) :

  • Hallucinations des LLM qui "se souviennent" de faits inexistants
  • Biais de corpus : surreprésentation de certaines voix, effacement d'autres
  • Deepfakes audio : création de paroles jamais prononcées
  • Photos "améliorées" par IA qui modifient le passé

*

Où est l'autorité dans tout ça ? Qui fait autorité quand la parole est générée ?

  • Le concepteur du modèle ?
  • Le corpus d'entraînement ?
  • L'algorithme de ranking ?
  • L'utilisateur qui parle ou déclenche ?

La chaîne de responsabilité se dissout. Fondamentalement, l'oralité était dialogique et présentielle : parler, c'est s'adresser à quelqu'un. Mais avec l'IA conversationnelle, on parle avec qui ?

Question ouverte qui appelle un nouveau concept : la textautoralité, à savoir la reconfiguration du régime d’auteur dans la textualité, qu’elle soit écrite ou orale, dès lors que la production des énoncés est médiée, assistée ou générée par des dispositifs techniques et algorithmiques.

*

Dans le prolongement heuristique du continuum décrit par Walter J. Ong — oralité primaire, chirographie, typographie, oralité secondaire —, il devient possible de désigner l’émergence d’un cinquième régime, que l’on pourrait nommer "oralité tertiaire". Dans ce régime, l’oral et l’écrit cessent d’être des ordres distincts pour devenir opérationnellement fusionnés : la parole est continûment transcrite, reformulée et archivée, tandis que l’écriture est oralisée, performée et réénoncée. 

On notera ici une asymétrie décisive : la chirographie et la typographie ont profondément transformé l’écriture, mais sans en altérer la nature fondamentale — l’écriture demeure un geste humain intentionnel, stabilisé et attribuable ; en revanche, le passage de l’oralité secondaire à une oralité tertiaire générative affecte la parole dans son ontologie même, en dissociant la voix de la présence et du locuteur. Ici l’asymétrie n’est pas quantitative, elle est qualitative.

Cette fusion, rendue possible par les dispositifs numériques et les modèles de langage, ne relève pas d'une simple convergence médiatique. Elle repose sur une convertibilité automatique et bidirectionnelle des modalités langagières : tout énoncé oral peut être instantanément transformé en texte, tout texte peut être synthétisé en parole, et cette conversion n'est plus le fait d'un travail humain de transcription ou de lecture, mais d'un traitement algorithmique qui interprète, normalise, adapte et régénère.

*

Parmi les effets les plus profonds — et souvent sous-estimés — de ce nouveau régime communicationnel figure le multilinguisme instantané, qui déplace radicalement la compétence linguistique du sujet vers l’infrastructure algorithmique, et transforme la langue en service : pouvoir soumettre à l'IA n'importe quel texte dans pratiquement n'importe quelle langue pour qu'elle vous réponde, quasi en temps réel, en l'analysant dans la langue de votre choix n'est pas anodin. C'est une mutation du rapport humain aux langues, et donc au monde.

Jusqu’à une période très récente, la barrière des langues constituait l’une des dernières frontières humaines jugées aussi infranchissables que les grandes chaînes montagneuses : apprendre une langue demandait des années, la traduction exigeait des compétences rares, et toute communication translinguistique impliquait des coûts, des délais, des pertes de sens et de contexte. La langue n’était pas seulement un outil : elle demeurait une appartenance, une mémoire, un capital.

Or la traduction — désormais couplée à l’analyse, la reformulation et l’adaptation de registre — bascule dans un régime de convertibilité quasi immédiate. Ce que l’on externalise, ce n’est pas seulement la traduction, mais une part de la compétence d’énonciation elle-même : choisir les mots, calibrer le ton, expliciter des implicites, ajuster les formules de courtoisie, "faire passer" un message. Dès lors, l’enjeu n’est pas simplement pratique. Il est anthropologique, avec des impacts majeurs :

A) Déplacement du « capital linguistique »

Historiquement, parler une ou plusieurs langues constituait un capital social : accès à l’éducation, à la mobilité, au prestige, au pouvoir. Avec le multilinguisme instantané, une partie de ce capital se déplace : du locuteur vers le dispositif, de la compétence vers l’infrastructure. On peut espérer une démocratisation partielle de l’accès (information, services, négociation), mais au prix d’une dépendance accrue envers des systèmes privés, leurs modèles, leurs politiques et leurs biais.

B) Universalisation de la conversation, mais pas des cultures

La traduction abolit les barrières linguistiques, elle n’abolit pas les mondes culturels. Implicites, normes de politesse, hiérarchie, humour, sous-entendus, formes de preuve, styles d’argumentation : tout cela ne se traduit pas "automatiquement", même si cela peut se reformuler. D’où un paradoxe : compréhension linguistique accrue, mais malentendus culturels renforcés, précisément parce que la fluidité donne l’illusion de comprendre vraiment. La transparence apparente de la traduction devient un piège cognitif.

C) Nouveaux régimes de confiance

Quand un humain traduit, on sait (au moins en principe) qui a interprété. Quand un modèle traduit, le sens passe par un filtre opaque : choix lexicaux, atténuation, intensification, neutralisation, déplacement de registre. On gagne une confiance pratique ("ça marche"), mais on perd une part de contrôle épistémique ("qu’est-ce qui a été réellement dit ?"). La traduction devient alors un acte politique : orientation, cadrage, euphémisation, biais, voire normalisation.

D) Reconfiguration de l’identité linguistique

Nos langues ne sont pas seulement des outils : elles portent une mémoire, un rythme, des gestes, une appartenance. Quand on peut « parler toutes les langues » via un dispositif, on observe une désidentification partielle (je parle sans parler), une hybridation accélérée (calques, mélanges, registres importés) voire une dépossession : on n’habite plus sa langue, on l’administre via une interface. La langue devient un paramètre réglable et non plus un milieu vécu.

E) Accélération de la circulation des récits et des conflits

Le multilinguisme instantané rend possible la diffusion immédiate de récits politiques, la propagande et la désinformation multilingues, la circulation transfrontalière de slogans et de "mèmes", ainsi que la mobilisation rapide de communautés diasporiques. Anthropologiquement, cela peut renforcer une synchronisation émotionnelle globale, une polarisation transnationale, et une compétition des récits à l’échelle planétaire. L’espace public se mondialise, mais sous des logiques de vitesse et de contagion.

F) Transformation de l’apprentissage et de la transmission

Deux scénarios coexistent : déclin de la motivation à apprendre (pourquoi perdre mon temps si le système le fait à ma place ?) et augmentation paradoxale (l’outil devient tuteur, correcteur, immersion). Mais l’effet profond est ailleurs : on externalise la compétence, on apprend moins par incorporation, davantage par délégation. On devient un orchestrateur de langues plus qu’un locuteur, mais cela transforme aussi le rapport au savoir.

G) Risques d'uniformisation

La peur évidente est celle d’un "globish algorithmique" : une convergence de toutes les langues vers des tournures standardisées, une neutralisation des aspérités, une politesse “internationale”, un ton moyen. Toutefois, le risque n'est pas automatique, ni mécanique : il dépend des corpus d’entraînement, des langues mieux servies, des variétés reconnues (dialectes, sociolectes), des registres favorisés (administratif, neutre, poli) et des objectifs des plateformes.

Il y aura donc simultanément un mouvement d’uniformisation (effet plateforme) et, potentiellement, un mouvement de revitalisation (si les outils servent effectivement les langues minorées, leurs registres et leurs nuances). Anthropologiquement, la lutte des langues ne disparaît pas : elle se déplace. Elle devient une lutte pour les données, les modèles, les infrastructures — et, au fond, pour le droit de faire exister des mondes dans et par la langue.

*

Nous pouvons enfin identifier trois traits structurants de ce que j’appellerais l’oralité tertiaire :

1. La disparition (ou la dématérialisation) du support comme ancrage symbolique

Le langage ne s’inscrit plus prioritairement via un support matériel identifiable — voix incarnée, manuscrit, page imprimée ou enregistrement analogique — mais dans une infrastructure computationnelle. Il existe désormais comme ensemble de données manipulables en temps réel : tokens, vecteurs, embeddings, distribués dans des architectures de calcul et de stockage. Le langage perd ainsi son ancrage matériel stable pour devenir un flux processuel, sans état définitif.

2. Une énonciation sans locuteur humain

Alors que les régimes antérieurs supposaient toujours un sujet parlant — même médiatisé par la technique —, l’oralité tertiaire rend possible la production d’énoncés sans énonciateur humain direct. Voix synthétiques et textes générés ne reproduisent pas une parole préexistante : ils procèdent d’une simulation calculée. L’instance d’énonciation devient indécidable, invérifiable, et avec elle la source de l’autorité discursive.

3. Une contextualisation algorithmique des énoncés

Contrairement aux configurations précédentes qui supposaient une certaine universalité de l'énoncé — un manuscrit copié reste identique pour tous ses lecteurs, un livre imprimé est le même dans toutes les mains, une émission radiophonique est entendue simultanément par tous —, l’oralité tertiaire institue une variation systématique selon le contexte d’usage. Les énoncés sont générés à la demande, adaptés au destinataire, au moment et au dispositif, selon des paramètres algorithmiques plus ou moins opaques. La parole et l’écriture cessent d’être des objets stables pour devenir des productions situationnelles.

*

Cette triple transformation — dématérialisation, génération automatique, personnalisation — produit une mutation anthropologique dont l'ampleur reste à mesurer. L'oralité tertiaire ne se contente pas de modifier les modalités de communication : elle reconfigure les conditions mêmes de la mémoire (qui n'est plus ni incarnée ni archivée, mais computée), de l'autorité (qui n'est plus localisable dans un auteur ou une institution, mais distribuée dans le système algorithmique), et de la crédibilité (qui n'est plus attestée par un témoin ou garantie par un document, mais produite comme effet de plausibilité statistique).

Le langage, depuis toujours bien commun de l’humanité, s’inscrit désormais dans des infrastructures techniques privatisées, où écriture et parole ne relèvent plus exclusivement d’un acte souverain du sujet, mais d’un processus de validation au sein de systèmes génératifs.

*

Ainsi, nous assistons en direct à une refonte de rupture instaurant un binôme textualité/textoralité. 

Ce binôme, qui structurait jusqu’ici l’analyse des pratiques langagières contemporaines, reposait sur une distinction encore opératoire entre deux régimes : d’un côté, une textualité héritée de l’écrit, stabilisée, attribuable, lisible comme objet ; de l’autre, une oralité médiatisée, performative, située, mais toujours indexée à une source humaine identifiable. Or ce partage devient aujourd’hui insuffisant pour rendre compte des formes effectives de production, de circulation et de réception du langage.

Dans le régime émergent, l’oral et l’écrit ne constituent plus deux modalités distinctes entre lesquelles on passe, mais deux états transitoires d’un même continuum computationnel. La parole est pensée comme texte latent, immédiatement transcriptible, analysable, résumable, traduisible ; l’écriture est conçue comme parole potentielle, immédiatement oralisable, performable, dialogisable. Ce qui circule n’est plus prioritairement un texte ou une voix, mais une matière langagière indifférenciée, manipulée par des systèmes capables d’en changer la forme, le ton, le registre et la destination.

Or cette refonte ne concerne pas seulement les formes du langage ; elle engage aussi profondément ses conditions d’énonciation. Lorsque des énoncés sont produits sans locuteur humain direct, reformulés sans intention explicite, diffusés sans auteur assignable et personnalisés sans responsabilité identifiable, c’est la notion même de l’auctorialité qui s'en trouve déplacée. L’auteur n’est plus une origine, mais une fonction parmi d’autres dans une chaîne de génération, de sélection et de validation.

Enfin, parce que ces énoncés ne cessent d’être réécrits, reformulés, résumés, traduits, hiérarchisés et recontextualisés, ils ne peuvent plus être appréhendés comme des objets langagiers isolés. Chaque production s’inscrit dans une stratification dynamique de versions, de traces et de transformations, visibles ou invisibles. 

Ainsi, la refonte du binôme textualité/textoralité ne correspond ni à une disparition de l’écrit ni à un retour de l’oral, mais à l’émergence d’un nouveau régime communicationnel, où le langage devient à la fois génératif, stratifié et gouverné. Ce régime n’abolit pas les pratiques humaines de la parole et de l’écriture, mais les inscrit dans un environnement où l’humain n’est plus l’unique producteur du langage, ni le seul garant de son sens, de son origine ou de sa véracité.

C’est à partir de cette situation — inédite par son ampleur, sa vitesse et son degré d’automatisation — qu’il devient nécessaire de repenser conjointement textualité, oralité, auctorialité et mémoire, non plus comme des catégories séparées, mais comme les dimensions interdépendantes d’un même écosystème sémiotique en mutation.

Une nouvelle condition également à l'origine des deux sous-régimes de palimptextualité et de palimptextoralité, où les énoncés, à la fois textuels et oraux, existent comme couches successives, gouvernées par des dispositifs algorithmiques qui déterminent ce qui apparaît, ce qui persiste et ce qui s’efface.

*

En m'appuyant sur ma propre conception du palimptexte, je proposerais les définitions suivantes de ces deux concepts :

Palimptextualité 

Propriété d’un objet sémiotique (numérique ou médiatique) d’exister comme une stratification de versions, de reprises, de transformations et de filtrages, où aucune couche n’efface totalement les précédentes, même si certaines sont invisibles ou externalisées. 

Palimptextoralité

Régime palimptextuel propre à l’oralité médiatisée, où les strates ne se donnent pas comme des révisions visibles (brouillons, historique), mais s’accumulent par répétition, cadrage, montage, reformulation et recirculation (clips, citations, sous-titres), et par leur inscription dans la mémoire individuelle et collective. 

Dans ce cadre, la télévision mérite un chapitre à part :

Les deux précédentes définitions sont le pendant des régimes supérieurs :

Textualité

1) Textualité héritée (humaine, intentionnelle)

Régime de la littératie (chirographie, ou "écriture manuscrite" / typographie) dans lequel un énoncé existe comme texte stabilisé : inscription durable, relisible, transmissible, dont la syntaxe, la ponctuation, l'organisation résultent d’une mise en forme réfléchie. La textualité héritée suppose une objectivation de l’énoncé (le texte devient un objet), une relative unicité (un "même" texte pour des lecteurs multiples), et une auctorialité en principe assignable, même lorsque cette attribution est collective ou institutionnelle. Dans ce cadre, l’écrit demeure structurellement second : il fixe et organise après-coup ce que la parole énonce.

2) Textualité machinique (algorithmique, computationnelle)

Dans le nouveau régime hybride, la textualité cesse d’être une catégorie monolithique : elle devient l’un des états transitoires d’un continuum où le texte n’est plus d’abord un objet stable, mais une matière langagière immédiatement manipulable : transcriptible, analysable, résumable, traduisible, reformulable, et parfois générée sans auteur humain direct. Elle se définit moins par la fixation que par la convertibilité, la contextualisation et la stratification : le texte tend à être une couche parmi d’autres dans une dynamique de versions, de filtrages et de transformations (palimptextualité), au sein d’infrastructures techniques où l’écriture perd son ancrage matériel et son état définitif.

Textoralité

Régime sémiotique émergent dans lequel la parole et l’écrit cessent d’être deux ordres distincts pour devenir opérationnellement interconvertibles. La textoralité correspond au versant oral du continuum tertiarisé : l’énoncé y existe comme parole potentielle continûment oralisée, performée, simulée et rendue dialogique par des dispositifs algorithmiques (synthèse vocale, assistants, clonage, interfaces conversationnelles), tout en étant simultanément conçu comme texte latent (transcription, indexation, résumé, traduction).

Ce régime se distingue des formes antérieures d’oralité : il ne renvoie ni à l’authenticité hic et nunc de l’oralité primaire, ni à la reproduction médiatisée d’une source identifiable propre à l’oralité secondaire. La textoralité institue au contraire une énonciation possible sans locuteur humain direct, et fait de la conversation une interface standard, indépendamment du degré réel de compréhension. Pôle du flux, de la vitesse et de la performativité, elle est structurellement instable et contextualisée, produite à la demande, personnalisée par des paramètres algorithmiques, et susceptible d’entrer dans une stratification dynamique (palimptextoralité) par montage, cadrage, reformulation et recirculation.

*

Une problématique transversale à ce qui précède est celle de l’auctorialité — c’est-à-dire des conditions d’attribution, d’autorité et de responsabilité d’un énoncé — dans l’ensemble des régimes langagiers contemporains, qu’ils soient textuels ou oraux, stabilisés ou stratifiés, à savoir la reconfiguration du régime d’auteur que j'ai nommée plus haut :

Textautoralité

Désigne la manière dont la production des énoncés devient distribuée entre plusieurs instances (auteur humain, dispositifs de capture et de conversion, plateformes, modèles génératifs, règles de visibilité), de sorte que l’auteur n’est plus seulement une origine, mais un opérateur : celui qui déclenche, cadre, sélectionne, édite, valide ou assume un énoncé dont une part peut être automatisée, reformulée ou générée.

Dans la textualité héritée, la textautoralité reste marginale (elle concerne surtout l’édition et l’institution). Dans la textualité machinique et la textoralité, elle devient structurante : l’énonciation peut être produite sans locuteur humain direct, puis attribuée, "signée" ou endossée après coup. Elle se complexifie ultérieurement dans les formes palimptextuelles et palimptextorales, puisque l’énoncé n’existe plus comme un objet unique, mais comme une stratification de versions, de montages et de filtrages, rendant l’origine, l’intention et la responsabilité plus difficiles à localiser.

*

L'ensemble de cette architecture contemporaine des régimes du langage fera l'objet d'un article académique à publier en 2026.

*

Conclusion

Discernement et confiance : le nœud anthropologique du régime tertiarisé

Pour que cette architecture des régimes du langage ne reste pas un schéma abstrait, il faut nommer le point où tout se joue, dans la vie quotidienne : tirer le vrai du faux dans le chaos informationnel. Or ce travail n’est pas seulement épistémique ; il est anthropologique, parce qu’il engage notre manière d’habiter le monde social. Deux notions deviennent alors indissociables : le discernement et la confiance, deux faces d’une même médaille.

Dans les régimes primaire et secondaire, le discernement était soutenu par des ancrages matériels et sociaux relativement stables. Dans le régime tertiaire, ces ancrages s’effacent simultanément.

Le discernement devient une tâche infinie et incertaine : un texte ou une parole peut être généré par un humain, assisté par une IA, co-produit, ou entièrement autonome — sans que le récepteur puisse le savoir a priori. La fluidité des versions et la personnalisation algorithmique rendent toute citation instable : ce que j’ai lu hier peut avoir changé aujourd’hui, ou être différent de ce que vous lisez en même temps que moi.  

La multimodalité (texte, voix synthétique, image, vidéo générée) multiplie les surfaces de projection, mais aussi les points d’entrée pour la manipulation (deepfakes, reformulations subtiles, hallucinations plausibles). Le vrai n’est plus garanti par la fixité du support ni par l’identité vérifiable de l’émetteur, mais par une chaîne opaque de calculs statistiques opérés par des modèles privés.

La confiance, quant à elle, se trouve déracinée : à qui faire confiance quand l’auteur est dilué (prompt + modèle + corpus + éditeur) ? à quoi faire confiance quand le texte ou la voix n’a plus de corps, de geste, de contexte stable ? 

Les plateformes deviennent les nouveaux garants : non plus la personne, non plus le document, mais l’algorithme et l’entreprise qui le détient. Nous déléguons le discernement aux systèmes de modération, aux scores de fiabilité, aux labels « généré par IA » — qui eux-mêmes sont produits par les mêmes infrastructures.

Ce déplacement est profondément perturbant : nous passons d’une confiance intersubjective (fondée sur la relation humaine ou sur l’artefact partagé) à une confiance infrastructurée (déléguée à des systèmes socio-techniques obscurs). Le discernement n’est plus un acte souverain de la raison critique face à un objet stable ; il devient une navigation permanente dans un flux de probabilités, où le doute est structurel.

Or, sans confiance minimale, le lien social se défait. Si tout peut être généré, reformulé, personnalisé à la demande et à l'infini, alors rien ne porte plus la marque irréductible de l’intention humaine. La parole perd sa performativité (elle n’engage plus vraiment quelqu’un), l’écrit perd sa force probante (il n’atteste plus vraiment quelque chose).

Le risque ultime n’est pas seulement l’erreur ou la manipulation, mais la lassitude : un monde où le discernement exige une vigilance épuisante, et où la confiance ne peut plus se déposer nulle part sans arrière-pensée. Nous risquons de nous replier soit dans le cynisme généralisé (« tout est faux »), soit dans la crédulité tribale (« je crois seulement ce qui vient de ma bulle »).

Pour habiter dignement ce régime tertiarisé, il nous faut inventer de nouvelles pratiques et de nouvelles institutions du discernement et de la confiance : via une transparence radicale des chaînes génératives (traçabilité des prompts, des modèles, des corpus) ? des marquages inviolables et vérifiables de l’origine humaine ou automatisée ? une éducation massive à la lecture critique des outputs algorithmiques ? une gouvernance publique ou collective des infrastructures langagières, de sorte que le langage ne devienne pas un service privé captif ?

Ces questions ne sont pas techniques, elles sont politiques. Car ce qui est en jeu, au fond, ce n'est pas seulement la capacité de distinguer le vrai du faux, mais le maintien d'un espace commun où la parole fait encore acte, où l'écrit fait encore preuve, où le langage demeure un bien partagé et non une ressource privatisée.

L'oralité tertiaire n'est pas la fin de la communication humaine, mais elle en transforme radicalement les conditions d'exercice. Elle nous place devant un choix de civilisation : soit nous acceptons de devenir des validateurs passifs d'énoncés générés, déléguant notre souveraineté langagière aux infrastructures algorithmiques ; soit nous réinventons collectivement les conditions matérielles, institutionnelles et éducatives d'une communication qui reste fondamentalement humaine — même quand elle est techniquement médiée.

Le nouveau régime communicationnel de l'humanité exige de nous que nous réapprenions à faire confiance intelligemment, et à discerner sans nous épuiser. C'est peut-être la compétence critique cardinale du XXIe siècle : non pas résister à la technique, mais refuser qu'elle dissolve ce qui fait de nous des êtres de parole — c'est-à-dire des êtres responsables, adressables, capables de s'engager par ce qu'ils disent.

Car si la parole et l'écriture cessent d'engager, si elles ne sont plus que des flux calculés, alors c'est la possibilité même du politique qui s'efface. Et avec elle, notre capacité à construire ensemble un monde commun.

Il fut un temps où donner sa parole avait un sens...

P.S. Pour alimenter ma réflexion et rédiger ce billet, j'ai bien évidemment commencé par convoquer l'IA, en accumulant en trois jours de questions-réponses - qui amènent à leur tour d'autres questions-réponses dans un cycle sans fin -, quelques centaines de pages et plus d'une centaine de milliers de mots, avant même d'avoir écrit une seule ligne ! Sans pilotage, les LLM partent dans tous les sens...

Par ailleurs, d'aucun(e)s pourraient me reprocher l'emploi de plusieurs néologismes. Le fait est que la création d'un néologisme n'est jamais un geste gratuit : elle correspond à la nécessité de nommer une configuration nouvelle pour la rendre pensable. Or la fusion contemporaine de l’oral et de l’écrit, rendue possible par l'IA et les grands modèles de langage, constitue précisément une situation sans précédent historique — du moins sous ces formes, à cette échelle et avec un tel degré d’automatisation.

Dans ce contexte, j'estime qu'il ne s'agit pas de coquetteries lexicales, mais d'une nécessité conceptuelle permettant de nommer un régime hybride nouveau, dont les implications cognitives, sociales et politiques ne peuvent être conçues ni élaborées avec les catégories héritées. Nommer, ici, n’est pas embellir le réel : c’est rendre visible une transformation majeure de notre rapport au langage, à la mémoire et au discernement. 

vendredi 12 décembre 2025

Palimptexte 3.0: Welcome in the Word Century

page IA

IA inside

*

[Mise à jour - 15 décembre 2025] Le nouveau régime communicationnel de l'humanité et l'architecture contemporaine des régimes du langage

[Mise à jour - 14 décembre 2025] Je viens de publier - merci Anthropic - une frise chronologique intitulée Du palimpseste au palimptexte :

*

Près de vingt ans après ma tentative de conceptualisation initiale, le palimptexte doit être redéfini (voire défini tout court) à l'ère des LLM et de l'intelligence artificielle générative. C'est une notion qui m'est chère et que je n'ai pas songé d'abandonner une seule seconde. Quand bien même elle n'a jamais trouvé le moindre écho nulle part.

Ce billet est donc le septième que j'y consacre : 

  1. L'Internet aujourd'hui : de l'hypertexte au palimptexte (2006)
  2. Palimptexte : une tentative de définition (2006)
  3. Welcome in the World Century (2007)
  4. Welcome to the Word Century (2011)
  5. Le palimptexte terminologique (2016)
  6. Palimptextes poétiques (2023)

Genèse et 20 ans d'évolution, en 5 grandes étapes :

  1. 2006-2007, billets de 1 à 3 : contexte Web 2.0, formalisation initiale du concept et réflexion sur la mutation culturelle induite par le Web (stratification billets de blog + commentaires, mais encore largement textuelle) ;
  2. 2011, billet 4 : vers le Word Century, explosion de la production écrite humaine (réseaux sociaux, tweets, microformats, etc.), première prise de conscience sur le phénomène massif de la textualité numérique ;
  3. 2016, billet 5 : fiche terminologique, apparition de la multimodalité liée aux smartphones et aux plateformes (écrit, oral, image, vidéo), intégration de plusieurs médias, sans les penser encore comme couches stratifiées et sans rompre avec la logique textuelle ;
  4. 2023, billet 6 : dimension poétique, quasi anthropologique (geste, trace, survivance) et expérientielle du concept, le palimptexte est exploré comme lieu de création, de mémoire, comme préparation implicite du passage à une vision sémiotique complète ;
  5. 2025, ce billet : palimptexte 3.0, nécessité d’une redéfinition due à l’essor massif des LLM et IA génératives. Le palimptexte acquiert en outre une dimension politique et devient terrain de lutte pour le discernement dans un monde saturé de langage.

De "Welcome to the Word Century", nous y allons, à "Welcome in the Word Century", nous y sommes !

De "on part du mot et on arrive au monde" en 2016, à "on part du monde et on arrive au mot" dix ans plus tard. [MàJ - Le jour-même où j'ai publié ce billet, j'ai découvert celui-ci, signé Fei-Fei Li, qui fait quand même la une de Time Magazine]

Explications.

*

Dans les décennies 2000-2010, "on part du mot et on arrive au monde" décrivait, selon moi, l’économie du Web 2.0 : le mot clé saisi dans un moteur devient une clé d’accès à l’univers du Web, un portail ouvert sur la pluralité dynamique du monde numérique, avec également des conséquences IRL, implicites ou explicites.

Ce n'est plus le cas aujourd'hui, ou ça le sera toujours moins. Et contrairement à ce que l'on pourrait penser, "on part du monde et on arrive au mot" n'est pas une évolution positive, mais une régression. "Bienvenue dans le siècle des mots" traduit désormais l'humanité immergée, saturée, dissoute dans le langage, noyée 24/7/365 dans des océans de mots - faux, vrais, gris, etc., tous médias confondus - au point qu'elle devient incapable (c'est bien le but) de démêler le vrai du faux, alors même que les progrès actuels (jamais atteints depuis l'aube de l'humanité) devraient justement lui permettre, la mettre en condition, d'exercer son discernement.

Cela signifie que nous sommes définitivement entrés dans l'ère où les humains ne se sauveront, ou ne survivront, que dans la mesure où ils seront capables de discerner entre information/désinformation, vérité/mensonge, transparence/manipulation ou propagande, blanc/noir et ainsi de suite. Pour autant, à voir comment les peuples des soi-disant démocraties votent, je suis plutôt pessimiste...

*

Mais laissons de côté la question - pourtant fondamentale - du discernement (condition même de la liberté), pour affronter celle du palimptexte 3.0. Que l'on pourrait définir ainsi :

Objet sémiotique numérique, multimodal, génératif et stratifié, résultant de la superposition de signes, humains ou autrement générés, dont aucune couche — textuelle, visuelle, sonore, interactive ou algorithmique — n’efface totalement les précédentes. Le palimptexte 3.0 n’est plus un simple “texte en évolution”, mais un écosystème de signes produits, filtrés, contextualisés et ordonnés par des dispositifs techniques, sociaux et cognitifs.

Pourquoi sémiotique et non plus simplement textuel ?

Parce que lorsqu'on parle d’un objet textuel dans une perspective traditionnelle, on suppose que l’unité centrale est le texte verbal — mots, phrases, paragraphes — et que tout ce qui l’entoure, qu’on le range sous la catégorie de paratexte (titres, notes, encadrements) ou qu’il s’agisse d’éléments visuels et graphiques, reste périphérique par rapport à ce noyau verbal (illustrations, sons, mise en page, interface, etc.).

L’analyse porte donc d’abord sur le lexique, la syntaxe, l’organisation discursive et la structure du document. Cette conception avait encore un certain sens au temps du Web 2.0 : blogs, wikis, fiches terminologiques, environnements où le texte verbal dominait effectivement, et les autres composantes demeuraient secondaires.

Or cette définition est devenue insuffisante. Il s’agit à présent d’un ensemble composite où cohabitent du texte, des images générées, du son, de la vidéo, des interfaces et des gestes interactifs ; où circulent des réactions, des likes, des emojis ; où s’enchaînent prompts, reformulations, outputs d’IA ; où les éléments visuels, sonores ou interactifs sont modulés par du code qui décide de ce qui s’affiche ou s’efface, et où des algorithmes orchestrent en permanence ce qui sera montré, dissimulé ou mis en avant.

Quelques exemples ?

  • Prenez un thread Twitter devenu viral : texte initial, images ajoutées, GIFs de réaction, quotes-tweets avec vidéos, thread audio en réponse, algorithme qui filtre l'ordre d'affichage. S'agit-il de couches périphériques, ou d'un objet sémiotique total ?
  • Un article Wikipédia n'existe jamais 'en soi' : il est la superposition de multiples éditions, avec leur historique visible, leurs différents auteurs, leurs discussions, voire guerres d'édition, leurs bots de maintenance. Lire un article Wikipedia sans consulter l'onglet 'Historique', c'est ignorer 90% de sa réalité palimptextuelle.
  • Quand vous cherchez 'réchauffement climatique' sur Google : l'hypertexte vous montre les liens (articles scientifiques, sites climato-sceptiques, médias). Le palimptexte vous révèle que certains résultats ont été rétrogradés par un algorithme, que d'autres ont été édités 50 fois, que telle source a changé de position au fil des ans, etc.

Pourquoi stratifié ?

Parce que dans un tel environnement, le texte verbal n’est plus qu’une couche parmi d’autres, dans un champ sémiotique beaucoup plus vaste. Il n'existe jamais dans un état unique ou stable, mais se constitue au contraire comme une superposition de traces, de révisions, de mises à jour, d’ajouts, de suppressions, de reformulations et de traitements génératifs. Si la version zéro d'un texte part d'une tabula rasa, chaque nouvelle occurrence de ce document numérique — que ce soit édition, commentaire, réécriture (automatique ou non), etc., ou variation induite par un algorithme de recommandation —, laisse derrière elle une couche, parfois visible, parfois implicite, parfois inscrite dans le code ou la mémoire de la plateforme.

Un palimptexte n’est donc pas seulement un texte “augmenté” : c’est véritablement une stratigraphie en devenir, où cohabitent des couches humaines et des couches autrement générées ; des couches intentionnelles et des couches calculées ; des couches explicitement signifiantes et des couches issues du travail invisible des algorithmes. La matérialité numérique elle-même — logs, historiques, métadonnées, versions intermédiaires, caches, embeddings — produit des strates additionnelles qui participent à l’identité du document.

On ne lit donc jamais un palimptexte comme un objet homogène, mais comme une juxtaposition dynamique de ses états successifs et de ses processus de transformation. La stratification devient ainsi la condition même de son existence sémiotique : elle manifeste la manière dont un document numérique vit, change, circule, se recompose et se négocie à travers ses multiples couches.

*

En d'autres termes, disons que le Web c'est - encore et toujours - l'hypertexte, où le texte numérique n’est pas un objet isolé, mais un nœud dans un réseau de liens, porte ou carrefour. Ce qui compte n’est pas seulement le texte lui-même, mais :

  • ses connexions,
  • ses renvois,
  • ses voisinages,
  • ses reprises,
  • sa navigation,
  • les parcours qu’il autorise,
  • les interactions qu'il suscite.  

L’hypertextualité pense le Web dans sa dimension horizontale, topologique, relationnelle, le texte existe par son inscription dans une structure réticulaire.

Le palimptexte (la palimptextualité ?), en revanche, déplace la perspective vers une dimension verticale, stratigraphique, temporelle, il voit chaque document comme une coupe géologique du réseau.

L'hypertexte montre les liens extérieurs et favorise la navigation, le palimptexte révèle la mémoire interne et privilégie la généalogie à travers :

  • réécritures,
  • mises à jour,
  • corrections,
  • commentaires,
  • métadonnées,
  • citations,
  • traitements algorithmiques,
  • résumés, reformulations, traductions,
  • couches humaines et couches générées.

En articulant hypertextualité (dimension réticulaire) et palimptexte (dimension génétique), on obtient une théorie complète du texte numérique, à la fois réseau et généalogie, le texte étant défini par sa double dimension textuelle :
  • ce à quoi (à qui) il renvoie,
  • ce qui le renvoie,
  • les chemins qu’il ouvre,
  • les communautés qu’il relie,
qui dessine la carte du Web, et palimptextuelle :
  • ce qu’il a été,
  • ce qu’il devient,
  • ce qu’on en fait,
  • la mémoire stratifiée de ses états,
  • les interventions humaines ou générationnelles qu’il incorpore,
qui en trace la biographie interne.

*

En conclusion : l'hypertexte est l'espace du Web ; le palimptexte le temps du Web. Désormais, nulle lecture n’est possible sans cette double conscience : celle des réseaux qui relient, et celle des strates qui se superposent. Là où l’hypertexte nous apprenait à naviguer, le palimptexte nous oblige à interpréter chaque document comme une condensation de traces, un champ de forces où cohabitent intentions humaines, opérations algorithmiques, réécritures successives et résidus de version.

La textualité numérique du XXIᵉ siècle est un écosystème où hypertexte et palimptexte nous racontent non plus des textes, mais des histoires de textes, non plus seulement des contenus, mais des couches de sens en interaction permanente.

Donc, dans un monde saturé de langage et de messages qui prolifèrent jusqu’à obscurcir ce qu’ils prétendent décrire, il devient vital d'apprendre à distinguer versions humaines et versions générées, à reconnaître les traces, les filtrages, à percevoir les effacements, lire à travers les reformulations, identifier les fake news, etc.

Dans le siècle des mots, apprendre à discerner n’est plus une vertu intellectuelle mais une compétence de survie. Face à l'infobésité, la notion de palimptexte n'est pas un jeu théorique, mais un geste de résistance cognitive. Le concept n’est plus seulement descriptif, il devient critique : le refus de se laisser emporter par la furie (dés)informationnelle.

lundi 8 décembre 2025

Stratégie Européenne de Sécurité 2026

page IA

IA inside

*

Au mois de mai dernier, l'historien Andrew Preston a publié Total Defense: The New Deal and the Invention of National Security, un ouvrage dans lequel il démontre que la notion moderne de « sécurité nationale » américaine n’a rien d’intemporel. Loin d’être née avec la guerre froide, elle est selon lui le produit des années Roosevelt et du New Deal : une extension à l’échelle mondiale d’une logique initialement conçue pour l’intérieur, celle de la « sécurité sociale ». Roosevelt, confronté à la crise de 1929, avait redéfini la mission de l’État pour garantir la sécurité économique — emploi, retraite, assurance-chômage — via le Social Security Act de 1935. À la fin des années 1930, il transpose ce modèle protecteur à la scène internationale, donnant naissance à l’idée de « défense totale » : il ne s’agit plus seulement de défendre le territoire américain, mais de protéger un mode de vie, des institutions et des valeurs face à des menaces idéologiques, économiques et militaires situées potentiellement à l’autre bout du monde.

Avant cette mutation, la défense nationale se confondait largement avec la protection du territoire. Tout au long du XIXᵉ siècle et jusqu’à l’entre-deux-guerres, les États-Unis bénéficient d’une situation de « free security » : deux océans les isolent, aucun voisin hostile ne les menace, et l’opinion publique peine à percevoir les dangers extérieurs. Roosevelt et son entourage s’inquiètent pourtant de cette insouciance stratégique face à la montée des régimes fascistes en Europe et en Asie. Ils cherchent à faire comprendre que des événements géographiquement lointains peuvent avoir des conséquences directes pour les États-Unis. C’est dans ce contexte qu’émerge la doctrine de la sécurité nationale : désormais, les menaces distantes — qu’elles soient militaires, idéologiques ou économiques — doivent être pensées comme dangereuses, susceptibles d’altérer le « mode de vie américain ».

L’attaque de Pearl Harbor, le 7 décembre 1941, joue un rôle décisif dans cette évolution. D’abord, elle constitue une preuve manifeste que Roosevelt avait raison : une puissance située de l’autre côté du Pacifique peut frapper le territoire américain sans avertissement, brisant l’illusion de sécurité géographique. Ensuite, elle provoque une bascule immédiate de l’opinion publique : ce qui était une controverse — faut-il intervenir en Europe ? aider le Royaume-Uni ? — devient en quelques heures un consensus en faveur de la guerre et de la mobilisation totale. La « défense totale » cesse alors d’être un discours pour devenir une réalité concrète : économie de guerre, conscription, expansion spectaculaire de l’appareil militaire. Enfin, Pearl Harbor ancre durablement l’idée qu’il faut un appareil de sécurité permanent : renseignement centralisé, armée en alerte, alliances durables. Après 1945, cette mémoire de la vulnérabilité nourrit la construction de l’« État de sécurité nationale » — National Security Act de 1947, CIA, Conseil de sécurité nationale — que Preston considère comme l'institutionnalisation d’un cadre mental forgé avant même la guerre.

Entre 1937 et 1942, la notion de « sécurité nationale » s’élargit donc considérablement : elle inclut désormais l’économique, le social, le culturel, et non plus seulement le militaire. Toute menace — nazisme hier, communisme ensuite, terrorisme plus tard — peut être interprétée comme mettant en péril la démocratie libérale américaine. Cette extension du sens permet aussi de présenter comme vitales des politiques qui relèvent en réalité de choix stratégiques, abaisse le seuil du recours à la force et renforce l’idée d’une Amérique investie d’une mission protectrice globale.

Dans cette perspective, la guerre froide n’apparaît pas comme l’origine de l’État de sécurité nationale, mais comme son accélérateur. Elle déplace progressivement les priorités : ce qui, à l’époque du New Deal, formait un projet équilibré entre sécurité sociale et sécurité nationale bascule vers une hypertrophie du volet sécuritaire, au détriment en partie des ambitions sociales.

Cet arrière-plan historique permet aussi de mieux comprendre les débats contemporains, notamment la question de savoir si l’ère Trump marque un retour à l’isolationnisme. En réalité, il ne s’agit pas d’un véritable retour à l’isolationnisme classique des années 1920-30 — rejet des alliances, refus des engagements extérieurs, neutralité stricte. Trump n’a ni réduit le budget militaire ni démantelé les bases américaines à l’étranger, et il a maintenu une politique de puissance vis-à-vis de la Chine ou de l’Iran. Ce qu’il propose, plutôt, est une forme de souverainisme opportuniste : « America First », méfiance envers les institutions internationales, dénonciation des alliances jugées coûteuses, retrait d’accords multilatéraux. On reste dans le jeu mondial, mais à condition que les bénéfices soient directs et immédiats pour les États-Unis.

Sur ce point, Preston aide à comprendre que Trump ne remet pas en cause l’État de sécurité nationale tel qu’il s’est constitué depuis Roosevelt. Il en modifie les priorités et la rhétorique — l’immigration, la Chine ou les « élites globalistes » deviennent des figures de menace — mais il conserve le réflexe central : se penser en termes de danger permanent et de défense du « mode de vie américain ». La logique de sécurité nationale demeure, mais elle se combine à une nostalgie isolationniste, produisant une politique extérieure moins généreuse, plus méfiante, plus conditionnelle.

En définitive, Preston montre que la « sécurité nationale » américaine est une construction historique née du New Deal, renforcée par Pearl Harbor et institutionnalisée après 1945. Elle structure encore en profondeur la manière dont les États-Unis se perçoivent : une « nation de sécurité », prête à intervenir — ou à se retirer — selon ce qu’elle identifie comme essentiel à la préservation de son identité et de sa prospérité. L’Amérique d’aujourd’hui, même sous Trump, reste façonnée par cet héritage, oscillant entre engagement global et tentation de repli, mais toujours guidée par la conviction que son mode de vie doit être protégé à tout prix.

[Parenthèse : en arrière-plan, cela semble suggérer qu’en Europe, soit on n’a rien de commun, soit on n’assume pas ce qu’on a en commun...]

*

L'administration Trump a récemment publié ce document, daté novembre 2025 et intitulé National Security Strategy of the United States of America, qui m'a fortement marqué. Dans le style Trump le plus cru. Comme dirait quelqu'un, « c'est du brutal » !

En le lisant, je n'ai pu m'empêcher de faire le parallèle avec la position américaine au sortir de la deuxième Guerre mondiale : les États-Unis s’imposent comme la première puissance mondiale et se présentent comme les « garants du monde libre », à l'époque pour "contenir" l’expansion de l’URSS. 

Pour autant, ce fameux « monde libre » n’a jamais été un ensemble homogène de démocraties, mais un espace hiérarchisé, défini d’abord par la lutte contre le communisme puis par les impératifs de puissance des États-Unis. La défense de la liberté politique a souvent cédé devant la priorité stratégique de l’anticommunisme, justifiant le soutien à des dictatures en Amérique latine, en Asie ou en Europe du Sud, ainsi que des interventions directes contre des gouvernements élus.

La "guerre froide" s'est traduite par un soutien américain à différentes dictatures d’extrême droite, en Grèce, au Chili, en Argentine, au Brésil, en Indonésie, en Iran (1953)..., par des coups d’État, des opérations clandestines, par l'appui à des régimes autoritaires en Europe du Sud (Portugal, Espagne franquiste, Turquie des années 80), voire par l'institution de protectorats, ou quasi-protectorats, américains : Italie, Japon (sous Mac Arthur), France...

Nous ne devons qu'à De Gaulle - qui ne nous a pas sauvé seulement des allemands, mais aussi des américains - d'avoir rompu avec cette logique de protectorat implicite, symbolisée par la sortie du commandement intégré de l’OTAN en 1966, par l'expulsion des QG de l’Alliance du territoire français, et par la reconquête de l'autonomie stratégique du pays en refusant la vassalisation et en développant une politique de grandeur nationale ainsi qu'une force de frappe nucléaire autonome.

Or aujourd'hui, 80 ans ont passé, mais la logique d'hégémonie et de puissance n'a pas varié d'un pouce, pas changé de nature, juste de contexte et d'outils : 

  • l’Europe n’est plus en ruines, comme au temps du plan Marshall, c’est un bloc riche ;
  • la menace principale n’est plus l’URSS, mais la Chine, la fragmentation du monde, les technologies critiques ;
  • les États-Unis ne sont plus surpuissants comme en 1945 : ils sont encore n°1, mais contestés ;
  • la mondialisation a profondément désindustrialisé certaines régions américaines, créant un ressentiment massif contre le “libre-échange sans limites” ; etc.
Sûrs de leur supériorité hier, menacés sur plusieurs fronts aujourd'hui. D'où le réflexe "America first", d'où le repli stratégique, subventions massives, “Buy American”, barrières commerciales. Face à la peur du déclin, le ton se durcit, notamment vis-à-vis des "alliés". En ce sens, la National Security Strategy est un formidable exercice d'équilibrisme OTAN/EUROPE qui cherche constamment à ménager la chèvre et le chou.

*

1. OTAN

Lorsque Macron déclare, en novembre 2019, que l'OTAN est en état de mort cérébrale, et l'UE au bord du précipice, les États-Unis, sous la présidence de Trump I, manifestent un désengagement croissant vis-à-vis de certaines opérations collectives, et, surtout, regardent ailleurs, vers "la Chine et le continent américain". Diagnostic du président français : s'il n'y a pas en Europe "un réveil, une prise de conscience de cette situation et une décision de s'en saisir, le risque est grand, à terme, que géopolitiquement nous disparaissions, ou en tous cas que nous ne soyons plus les maîtres de notre destin".

Ces mots furent critiqués de toutes parts (Merkel en premier lieu), or comment lui donner tort aujourd'hui ? Surtout à la lumière de cette National Security Strategy, qui a le grand mérite de mettre enfin les choses à leur place, en exprimant une position profondément révisionniste sur l’OTAN (et sur l'Europe encore davantage...), où les États-Unis ne sont plus le “leader” d’un bloc politique, mais le “convener” (organisateur) et le “supporter” (appui), où l'OTAN n'est plus une “communauté de valeurs”, mais un simple contrat. Parfaitement dans la logique de Trump.

Jusqu'ici l'OTAN était vu par les américains comme un “outil de domination”, aligné sur le long terme avec les intérêts structurels des États-Unis, à l'opposé de l'actuelle stratégie politique trumpienne, basée sur le court terme, les rapports de force, l'électorat intérieur.

Pour autant, le Pentagone, le Département d’État, une bonne partie des élites stratégiques US ne sont pas prêts à renoncer à :

  • des bases américaines partout en Europe,
  • un accès facilité aux marchés de l’armement,
  • une influence directe sur les politiques de défense européennes,
  • un bloc occidental organisé sous leadership américain.

En clair, la rhétorique de Trump ne vise pas à détruire ce pilier classique de l’hégémonie US mais à le réinstrumentaliser. En menaçant de se retirer, il transforme l’alliance en levier de chantage : il fait pression sur les Européens pour qu’ils augmentent leurs dépenses de défense et flatte, par la même occasion, un électorat américain lassé des engagements extérieurs. Traduit en langage simple : « Nous vous disons que l’OTAN reste vitale, mais nous vous faisons sentir à tout moment que nous pourrions la lâcher si vous ne faites pas ce qu’on veut. »

The Art of the Deal...

*

2. EUROPE

La NSS cite 5 fois l'OTAN, et 10 fois plus l'Europe (et les européens, sous une forme ou une autre), ce qui témoigne bien du fait que le continent européen est toujours une priorité de premier rang : « L’Europe reste stratégiquement et culturellement vitale pour les États-Unis ». Pour Washington, il n'est donc pas question de l'abandonner, elle reste une ressource stratégique, économique et symbolique centrale pour la puissance américaine. Ça, c'est la partie positive...

Côté négatif, il y a beaucoup à dire. J'aborderai le sujet par la bande : la façon dont la NSS aborde la guerre en Ukraine devrait agir comme un révélateur abrupt pour les Européens. En faisant de la “cessation rapide des hostilités” un intérêt vital des États-Unis, non pour garantir une victoire complète - et ni même un retrait décent - de Kiev mais pour stabiliser les économies européennes, éviter l’escalade et rétablir la stabilité stratégique avec la Russie, le document montre clairement que Washington pense d’abord en fonction de ses propres priorités globales. 

Dès lors, persister à déléguer aux US la définition de la stratégie en Europe revient pour celle-ci à accepter d’être un simple théâtre de négociation entre grandes puissances, et non un acteur à part entière. La NSS oblige donc les Européens à regarder en face leurs propres vulnérabilités : dépendance militaire, incapacité à soutenir une guerre de haute intensité sans les stocks américains, division politique sur les objectifs de la confrontation avec la Russie aujourd'hui. Demain ? On en revient donc au constat de Macron dès 2019 : tant que l’Europe ne sera pas capable de penser et de financer sa propre sécurité, elle restera exposée au risque de voir son destin négocié “par-dessus sa tête” entre Washington et Moscou ou d'autres...

La lecture des journaux de ce jour en Italie ne laisse aucune ambiguïté : l'Europe assiégée, Axe États-Unis/Russie contre l'Europe (variante : Axe Poutine-Trump), etc., on voit bien à quel point cette prise de conscience est en train de se faire dans la douleur. Pour autant, Washington ne fait que dire tout haut ce que la pratique américaine laisse déjà voir depuis longtemps, y compris lorsque les Démocrates sont au pouvoir : les alliances sont un instrument, pas une fin en soi ; l’Europe est un atout, pas un pupitre moral ; l’Ukraine est un théâtre, pas le centre du monde. Aux Européens de décider s’ils veulent rester des variables d’ajustement ou devenir des sujets politiques.

En fait, la NSS ne fait que confirmer un diagnostic que les Européens refoulent depuis des années : tant qu’ils n’auront pas décidé, collectivement, de devenir une puissance – avec tout ce que cela implique de moyens, de risques et de responsabilités –, ils continueront à découvrir, au gré des documents américains et des unes de journaux, que leur destin se négocie ailleurs, et sans eux.

*

En février 1946, George Kennan, diplomate et spécialiste de l’URSS, en poste à Moscou, transmet à Washington un long télégramme de plus de 8 000 mots, qui est à l'origine de la doctrine du containment (endiguement chez nous), dont l’idée centrale consiste à empêcher que l’URSS n’étende son système politique et son influence au-delà de sa zone déjà contrôlée, en théorisant la nécessité d’une politique de « long-term, patient but firm and vigilant containment of Russian expansive tendencies ».

Et de conclure (en français) :

Il ne faut ni céder (pas d’apaisement naïf) ni entrer dans une guerre générale, mais contenir l’expansion soviétique de manière ferme et patiente.

En 2025, presque 2026, j'adapterais ainsi cette prévision :

Il ne faut ni céder (pas d’apaisement naïf) ni entrer dans une guerre générale, mais contenir l’expansion américaine de manière ferme et patiente.

Or ce ne sont pas les pays européens, pris isolément sous prétexte de souverainisme qui n'a plus de raison d'être, qui peuvent s'employer à contenir l'expansion américaine (ou d'autres blocs géopolitiques), mais uniquement une Union européenne fédéraliste. Sans un cœur politique européen fort, sans noyau fédéral de décision “rapide” (quelques États prêts à aller plus loin, mais sous parapluie politique européen), toute autonomie reste un slogan, du pur bavardage. Dans le cadre actuel, Trump a beau jeu de pousser sa stratégie “Divide et impera”, qui fonctionne d’autant mieux qu’il n’a aucun centre en face.

Tant que tout reposera sur 27 gouvernements nationaux, Washington pourra : 

  • parler avec les plus proches, 
  • contourner les plus critiques (sa propagande s'y emploie déjà en plein, tout comme les manipulations russes), 
  • mettre en concurrence les autres,
  • et, surtout, bypasser complètement l'Union européenne...
*

J'ai donc décidé de faire abstraction de cette situation et d'imaginer une réponse commune de l'Europe à la NSS, que j'ai intitulée « Stratégie Européenne de Sécurité 2026 », détricotée avec trois IA : ChatGPT, Grok et Claude. La synthèse est rédigée en faisant dialoguer Grok et Claude, et l'énumération des différents points (en P.S.) à ChatGPT.

Il m'aurait fallu des semaines de préparation et d'approfondissements pour concevoir un tel document, une demi-journée avec les modèles... Toutefois, j'en assume pleinement le contenu :

Stratégie Européenne de Sécurité 2026

« La souveraineté européenne n’est pas un slogan : elle est la condition de notre capacité à survivre, libres, prospères et influents dans un XXI siècle de plus en plus compétitif et dangereux.

Le monde change à une vitesse que nous n’avions plus connue depuis la fin de la guerre froide. Les équilibres issus de 1945 et de 1989 se fissurent durablement. Les grandes puissances agissent d’abord et négocient ensuite. L’invasion russe de l’Ukraine, avec sa brutalité tragique, a rappelé que la paix en Europe reste fragile et que notre continent demeure un espace stratégique disputé. Si nous continuons d’avancer au rythme actuel – trop lent, trop fragmenté, trop dépendant –, nous risquons, presque imperceptiblement, de voir les décisions essentielles se prendre ailleurs. Dans un premier temps. Et de disparaître ensuite...

C’est pourquoi nous avons besoin d’une stratégie claire, partagée et ambitieuse, avec un horizon précis : d’ici 2030, nous devons avoir achevé les étapes décisives qui nous rendront à nouveau maîtres de notre destin – autonomie sur les semi-conducteurs critiques, doublement de notre capacité de défense collective, indépendance énergétique vis-à-vis des régimes autoritaires, bases solides d’une démographie et d’une éducation revitalisées.

Cette stratégie repose sur cinq domaines indissociables :

  1. Souveraineté technologique
    L’intelligence artificielle, les semi-conducteurs, le quantique et la cybersécurité sont les nouveaux nerfs de la puissance. Nous en dépendons encore trop largement. Nous devons investir massivement pour redevenir concepteurs plutôt que simples consommateurs.
  2. Souveraineté énergétique
    La crise de 2022 a montré que l’énergie reste une arme stratégique. Diversifier les sources, relancer le nucléaire de nouvelle génération, développer les renouvelables et protéger nos infrastructures critiques sont les leviers d’une indépendance réelle.
  3. Capacité de défense et de sécurité
    Une Europe qui ne peut se défendre seule perd, à terme, sa liberté de choix. Nous avons besoin d’un pilier européen de défense crédible au sein de l’OTAN, qu’elle consolide sans s’y dissoudre, d’une industrie intégrée et d’une protection effective de nos frontières et de nos infrastructures.
  4. Dynamique démographique, éducative et humaine
    Aucun projet de puissance ne tient sans une société vivante et compétente. Soutenir la natalité, attirer et intégrer les talents, faire de l’éducation le premier investissement stratégique : telle est la voie. Une immigration maîtrisée et réellement intégrée peut être un facteur de rajeunissement et de dynamisme, à condition d’être pensée comme un vrai projet politique (
    sur ce sujet aussi, l’absence de maîtrise collective affaiblit l’Europe : non seulement elle nourrit les fractures internes et les réflexes identitaires, mais elle empêche de transformer un défi en ressource stratégique. Une Europe qui prétend à l’autonomie ne peut pas laisser la question démographique et migratoire aux seules logiques nationales et aux réflexes de court terme).
  5. Diplomatie et influence normative
    Une Europe forte pèse sur les règles du jeu mondial. Cela passe par une voix plus unie, une alliance atlantique rééquilibrée, une relation lucide avec la Chine et un partenariat adulte, mutuellement bénéfique, avec l’Afrique et les autres régions émergentes.

Ces cinq piliers s’inscrivent pleinement dans le cadre de nos engagements climatiques, qui ne sont pas une contrainte extérieure mais un levier d’innovation, de compétitivité et d’indépendance.

Rien de cela ne sera simple ni indolore. L’ordre de grandeur se chiffre en plusieurs centaines de milliards d’euros sur la décennie, financés par une combinaison d’efforts nationaux, d’obligations européennes dédiées à la sécurité et à la souveraineté, et de cofinancements privés. Ces moyens seront répartis équitablement, avec des mécanismes de solidarité pour les États membres les moins riches, et décidés dans la transparence démocratique.

Cela suppose aussi des formes nouvelles de coordination – un Coordinateur européen de la souveraineté, un Budget de sécurité dédié, un tableau de bord public actualisé chaque année et débattu devant les parlements nationaux et européen –, sans jamais sacrifier nos démocraties nationales à une technocratie centralisée. Le débat restera permanent, car c’est la marque même de notre projet européen.

Nous ne prétendons pas défendre une Europe éternelle ou une essence immuable. Nous défendons un projet historique, perfectible, ouvert, qui a déjà su se réinventer dans les moments les plus difficiles.

Le choix n’est pas entre toute-puissance illusoire et protectorat honteux. Il est plus honnête : soit nous assumons ensemble les efforts nécessaires pour rester un pôle de liberté, de prospérité et d’influence, soit nous acceptons, progressivement, une marginalisation qui nous priverait des espaces de manœuvre que nous tenons encore aujourd’hui pour acquis.

Nous avons les moyens humains, intellectuels, économiques et institutionnels de réussir. Il nous faut maintenant la volonté politique et la clarté du cap.

Le moment n’est pas à l’abandon du débat, mais à sa clarification. Le moment est venu de décider, ensemble, l’Europe dans laquelle nous voulons vivre.

Et de choisir une Europe qui agit, qui décide, qui compte – par responsabilité envers l’avenir, notamment de nos enfants, et non par nostalgie du passé. »

P.S. Selon ChatGPT, une Stratégie Européenne de Sécurité 2026 digne de ce nom devrait rompre avec la logique « bloc contre bloc » et être pensée selon quelques principes de base : 


Préambule


a) Partir de la sécurité humaine, pas uniquement de la sécurité des États

Non seulement :

·         frontières, armées, PIB, supériorité technologique,

mais aussi :

·         climat, eau, énergie, santé, cohésion sociale, démocratie, information, systèmes numériques.

Autrement dit :

·         protéger la possibilité d’une vie digne sur le sol européen – et au-delà – plutôt qu’en protéger abstraitement la « civilisation ».

b) Assumer la pluralité européenne, sans fantasme d’un bloc monolithique

Une stratégie européenne crédible doit accepter que :

  • les menaces ne sont pas perçues exactement de la même façon en Finlande, en Espagne, en Pologne ou au Portugal ;
  • la sécurité n’est pas que militaire, elle est aussi sociale (France), énergétique (Allemagne), territoriale (États baltes), maritime (Italie, Grèce).

Donc :

·         le texte doit être polyphonique, pas un catéchisme centralisé façon « ligne officielle unique ».

c) S’appuyer sur de la connaissance et pas sur de la dramaturgie

De même que le document US, qui joue sur plusieurs tableaux, l’Europe devrait :

  • fonder son diagnostic sur des données (climat, économie, démographie, cyber, conflits) ;
  • expliciter ses incertitudes et assumer ses limites ;
  • refuser les slogans du type « l’Europe va disparaître dans 20 ans ».

d) Subordonner la technique à des fins politiques et morales claires

L’IA, la dissuasion, l’espace, le quantique, la cyber… oui. Mais dans un cadre clair :

·         La puissance technique de l’Europe est un instrument au service de la dignité humaine, de la paix et de la justice – pas une fin en soi.

La technique ne doit pas décider des fins.

e) Dialoguer, pas seulement répondre

Plutôt que : « Les Américains disent X, nous disons Y », nous aurions un texte qui :

  • rappelle la solidarité transatlantique là où elle fait sens ;
  • affirme la capacité européenne d’analyse autonome ;
  • se permet, calmement, de ne pas reprendre les obsessions américaines (par ex. le fantasme de l’« effacement civilisationnel »).

Architecture possible


I. Préambule : une Europe lucide, non paniquée

  • Reconnaitre que le monde est instable : guerre en Ukraine, tensions au Moyen-Orient, montée des régimes autoritaires, dérèglement climatique, pression migratoire, recomposition économique. Dire clairement :

« Notre objectif n’est pas de dominer le monde mais de vivre en paix dans un monde dangereux, en restant fidèles à nos valeurs fondamentales : dignité humaine, État de droit, pluralisme, justice sociale. »


II. Vision : sécurité européenne = sécurité humaine

Quelques axes fondamentaux :

  1. Protéger la vie et la liberté des personnes vivant en Europe (citoyens, résidents, réfugiés).
  2. Préserver les conditions matérielles d’une vie digne : climat, eau, alimentation, énergie, santé.
  3. Défendre les institutions démocratiques : élections, pluralisme, indépendance de la justice, médias libres.
  4. Prévenir les conflits aux frontières de l’Europe par la diplomatie, la coopération, le développement.
  5. Assurer la résilience numérique et technologique sans tomber dans la surveillance de masse.

III. Analyse des menaces (sans hystérie civilisationnelle)

1. Menaces “dures”

  • Russie : menace militaire et stratégique, en particulier pour l’Est de l’UE, guerre en Ukraine → priorité absolue à une issue qui protège la souveraineté ukrainienne et évite l’escalade.
  • Terrorisme : moins central qu’il y a 10 ans mais toujours présent.
  • États autoritaires (Russie, Chine, autres) : ingérences, pressions, chantage.

2. Menaces “diffuses”

  • Climat et environnement : feux, sécheresses, inondations, impact sur l’agriculture, migrations climatiques.
  • Instabilité du voisinage : Balkans, Afrique du Nord, Sahel, Moyen-Orient → crises politiques et économiques qui se répercutent sur l’Europe.
  • Désinformation, polarisation : attaques informationnelles, bulles numériques, perte de confiance dans les institutions.
  • Fragilités sociales internes : inégalités, fractures territoriales, perte de confiance dans les élites, montée du ressentiment.

Et ici, on pourrait écrire noir sur blanc :

« L’érosion de la confiance interne et la polarisation de nos sociétés représentent une menace stratégique pour l’Europe au moins autant que les armées étrangères. »


IV. Principes d’action

  1. Autonomie stratégique européenne, mais pas anti-américaine
    • Continuer à coopérer avec les États-Unis (OTAN, renseignement, industrie de défense),
    • …tout en renforçant la capacité de l’Europe à se défendre et à décider par elle-même quand les intérêts divergent.
  2. Primat du droit international
    • Défense du multilatéralisme quand il n’est pas vidé de sa substance,
    • Soutien aux institutions : ONU, Cour pénale internationale, OMC (réformée), etc.
  3. Sécurité partagée avec le voisinage
    • Traiter les Balkans, la Méditerranée, le Caucase, l’Afrique du Nord non comme “zones tampons” mais comme partenaires.
  4. Proportionnalité et responsabilité dans l’usage de la force
    • Refus explicite de doctrines de frappes préventives unilatérales,
    • Intégration du droit humanitaire dans toute planification militaire.

V. Europe – Russie – Ukraine

  • Reconnaître la Russie comme menace actuelle, mais ne pas enfermer la stratégie européenne dans un face-à-face éternel de type guerre froide 2.0.
  • Dire quelque chose comme :

« Notre objectif n’est pas la destruction de la Russie, mais la garantie, pour l’Ukraine, d’une indépendance durable, et pour l’Europe, d’un ordre européen où les frontières ne se changent pas par la force. »

  • Envisager déjà le “jour d’après” :
    • Reconstruction de l’Ukraine,
    • redéfinition des régimes de sécurité en Europe (contrôle des armements, transparence des forces, lignes rouges claires).

VI. Sécurité intérieure : cohésion sociale, migration, État de droit

Au lieu de crier à l’« effacement civilisationnel » :

  • Droits et devoirs des migrants, politique de migration ordonnée, humaine, prévisible.
  • Coopération renforcée avec les pays d’origine et de transit (économie, climat, gouvernance), au lieu de tout militariser.
  • Lier sécurité et réduction des inégalités : quartiers abandonnés, discrimination, perte d’espoir → terreau de la violence et de la radicalisation.

« Une Europe où une partie significative de la population se sent exclue, méprisée ou invisible n’est pas une Europe en sécurité. La cohésion sociale est un pilier de notre sécurité. »


VII. Sécurité numérique, IA, technique

C’est ici que l’Europe pourrait vraiment répondre à ta préoccupation sur la technique :

  • Affirmer que la souveraineté numérique est un enjeu stratégique (cloud, données, 5G/6G, IA).
  • En ajoutant clairement : « L’Union européenne s’engage à développer et réguler l’intelligence artificielle, les biotechnologies et les technologies de surveillance de manière à protéger la dignité humaine, la vie privée, la démocratie. »

La puissance technique ne sera jamais un objectif en soi. Donc :

  • pas de chèques en blanc aux big tech,
  • encadrement des usages militaires de l’IA,
  • coopération internationale pour empêcher les pires scénarios (armes autonomes létales, deepfakes de masse, manipulation des élections).

VIII. Dimension économique et industrielle de la sécurité

  • Réduction des dépendances critiques : énergie, matières premières, médicaments, semi-conducteurs.
  • Politique industrielle européenne pour la défense et les technologies clés (sans se transformer en caricature ultralibérale ni en forteresse fermée).
  • Reformulation du commerce international : « L’ouverture est un choix, pas une naïveté. Nous défendrons des échanges justes, mais nous riposterons aux stratégies de coercition ou de dumping. »

IX. Annexes / Mise en œuvre

  • Feuille de route par grandes zones (Est, Sud, Arctique, Atlantique, Cyber).
  • Articulation UE / États membres / OTAN.
  • Mécanismes de révision régulière (tous les 3–4 ans).
  • Indicateurs de suivi : pas seulement budgets militaires, mais aussi :
    • résilience des sociétés,
    • qualité de l’information,
    • niveau de conflit dans le voisinage,
    • respect de l’État de droit.