jeudi 17 juillet 2025

CharabIA : pourquoi lire ce qui n'est pas écrit !?

page IA

IA inside

Dans la cacophonie ambiante autour de l'IA, une phrase m'a particulièrement marqué : « Pourquoi lire ce qui n'est pas écrit ? » !

Je m'en suis déjà expliqué dans un précédent billet intitulé « IA : l'ignorer ou s'en moquer ne la fera pas disparaître ! », mais le sens, rectio : le non-sens, de ces mots va bien au-delà de ma personne, en ce qu'ils sont un déni absolu de ce qu'est l'IA.

À la limite, je les trouve même malsains : nier la réalité n'est jamais sain, c'est un signe de distorsion du réel pour le moins à deux niveaux :

  • cognitif (en termes de perception et de pensée)
  • discursif (en termes de langage et de représentations)

Cette réaction, qui traduit en outre une inquiétude (la perte de l’humain dans l’écriture), est aussi une double négation :

  • déni de l’acte d’écriture par une IA
  • refus symbolique de la lecture de textes co-écrits avec l'IA
La phrase entière : « Je suis désolée, mais si je vois "co-écrit avec ChatGPT", je passe mon chemin. Pourquoi lire quelque chose qui n'a pas été écrit ? »

La personne doit encore s'imaginer - et elle n'est pas seule... - qu'on envoie l'invite, on attend la réponse, un copier-coller et c'est publié ! Durée de l'opération : moins d'une minute. Ce qui est bien sûr totalement fantaisiste, j'ai mis deux jours à concevoir et rédiger le billet en question.

Cette remarque exprime aussi une crainte réprimée, une forte résistance culturelle : si ce n’est pas écrit par un humain, ce n’est pas digne d’être lu, car l'expérience, la subjectivité, la vérité humaines sont absentes.

Ce qui est, là encore, totalement faux

lorsque je trouve des raisonnements pertinents et que je décide de les insérer dans mon texte, je les fais miens. Cela signifie que je me les approprie, et que lorsque je publie un texte avec des mentions de ChatGPT ou de n'importe quelle autre IA dedans, j'en assume la paternité, en toute conscience. Ce n'est pas pour rien que je signe tous mes billets !

Certes, l'écriture a changé, elle évolue, comme tout, et il faudrait sûrement repenser ce que signifie "écrire" aujourd’hui. Pour autant, la production d'une IA n’est pas du non-texte : c’est du langage organisé, structuré, cohérent, souvent inspiré de siècles d’écriture humaine. Ce n'est pas la production mécanique d'une forme sans fond, d'un simulacre de texte sans auteur, pas plus qu'une absence d’écriture : c’est une autre forme de production textuelle, qui soulève certes des problématiques d’intention, d’autorat, de responsabilité – mais qui mérite d’être questionnée, pas balayée d’un revers de main.

Refuser de lire un article sous prétexte qu’il n’est pas "écrit" au sens traditionnel du terme revient à fermer la porte au monde qui vient, au lieu de l'interroger en y portant un regard éclairé, critique et exigeant. Ce que nous devons défendre n’est pas seulement "l’écriture humaine", mais la capacité à appréhender le sens, la qualité, la profondeur, quelle que soit l’origine du texte. L’IA ne remplace pas l’auteur, quand bien même elle en bouscule la définition. C’est bien la raison pour laquelle il faut la lire, la comprendre, la critiquer – et non l’ignorer. Entre un auteur humain qui écrit des inepties et une IA qui produit un texte intelligent et pertinent, que/qui choisir ?

Tout comme il faut apprendre à démêler le vrai du faux dans le tumulte médiatique quotidien autour de l’IA, beaucoup de bruit, peu de signaux, et souvent une confusion entre faits, fantasmes, et propagande commerciale ou politique. Comment distinguer la véridicité des arguments dans un tel charabIA ? Et comment exercer son discernement ?

Déjà, prétendre : « Pourquoi lire ce qui n'est pas écrit ? » signifie qu'on ne discerne plus grand chose ! Probablement en raison de craintes, avouées ou non, d'idées préconçues, d'un mélange de trouble, d’inquiétude, de rejet et d’incompréhension face au bouleversement culturel en cours. Peur de perdre ses repères ?

Les utilisateurs d’IA — écrivains, chercheurs, communicants, journalistes, blogueurs — ne délèguent pas leur pensée. Ils la prolongent ou la modulent grâce à l'IA, qui n’est pas un scripteur autonome, mais un autre participant à un atelier d'écriture. 

Chaque grande transition technologique — l’imprimerie, le cinéma, Internet — a suscité des résistances semblables. On a toujours cru que le nouveau médium allait diluer la valeur, tuer le sens, que ceci allait tuer cela, que l'écran allait tuer l'écrit. Or ce n’est pas l’outil qui fait ou défait le sens : c’est ce que nous décidons d’en faire. Ce que la main qui le tient décide d'en faire. 

Rejeter un texte parce qu’il a été écrit avec l’aide d’un outil puissant, c’est confondre origine technique et qualité humaine, comme si une idée cessait d’avoir du sens parce qu’elle a été rédigée ou élaborée autrement. Ainsi, dans mon précédent billet, j'ai renversé la formule « pourquoi lire ce qui n’est pas écrit ? », par « pourquoi ne pas lire ce qui est écrit ? », dès lors que c'est bel et bien écrit : refuser par principe de lire un texte issu de l’IA, c’est abdiquer notre capacité de jugement, c’est renoncer à évaluer la qualité d’un discours pour ce qu’il est : un bon texte est un bon texte, quelle que soit sa genèse.

Peu importe qu’il ait été "entièrement écrit par une main humaine" ou accompagné d’un agent conversationnel. Ce qui compte, c’est que me dit ce texte ? Est-il juste, fécond, utile, dérangeant, stimulant ? L’IA ne remplace ni l'écriture, ni la lecture, ni la pensée, mais si elle nous oblige à nous interroger avec vigilance sur le message issu de cette co-écriture, pourquoi le nier ?

J'attends donc des personnes qui pensent ou disent « pourquoi lire ce qui n’est pas écrit ? » qu'elles répondent en conscience à la question « pourquoi ne pas lire ce qui est écrit ? ».



IA : la disparition du travail. Hannah Arendt, Abraham Maslow, Marc Augé

page IA

IA inside

Le regard d’Hannah Arendt offre un angle d'approche possible sur les transformations du travail liées à l’intelligence artificielle, en particulier la question de la destruction d’emplois et de la place accordée à l’humain dans un monde de plus en plus atomisé et automatisé. En relation à la situation actuelle, la question serait non plus seulement de savoir « quels emplois vont disparaître ? », mais plutôt « quelle place l’activité humaine doit-elle occuper dans un monde automatisé ? ».

C'est à dessein que j'ai choisi de titrer sur la "disparition du travail", quand bien même les bonnes âmes vous expliquent tout sourire que l'IA n'engendre pas une "disparition", mais une "transformation" du travail.

Ça me rappelle la statistique selon Trilussa : nous sommes deux, j'ai mangé deux poulets et toi rien. Mais en moyenne, c'est comme si on avait mangé un poulet chacun...

Difficile d'être plus cynique ! Idem lorsque vous voulez expliquer aux gens qui se retrouvent chômeurs du jour au lendemain, que c'est dû à la destruction créatrice, ce mouvement permanent où l’ancien laisse place au nouveau... Car la "destruction créatrice" ne devient une chance que si on en fait un projet collectif, en repensant l’utilité sociale du travail, en redistribuant les gains de productivité, en construisant de nouveaux parcours de reconversion réels, accessibles, humains !

Pour autant, en consultant quelques prévisions, vous verrez qu'elles ne sont pas très roses. Voici un tableau récapitulatif pour vous faciliter la tâche : 

Analyste/Organisation

Prévision

Délai

Impact sur les cols blancs

Source

Dario Amodei (Anthropic, 2025)

50 % des emplois de cols blancs d'entrée de gamme éliminés

5 ans (d'ici 2030)

Oui

Axios

Forum économique mondial (WEF, 2025)

Perte nette de 14 millions d'emplois (2 % de la main-d'œuvre mondiale)

D'ici 2027

Oui, sur les rôles d'entrée de gamme

WEF

Goldman Sachs (2023)

300 millions d'emplois affectés

Non spécifié

Non spécifié

Forbes

Jamie Dimon (CEO JPMorgan, 2025)

L'IA dominera les tâches répétitives dans 15 ans.

Dans 15 ans

Oui, tâches typiques des cols blancs

Forbes

Kai-Fu Lee (Investisseur, 2025)

50 % des emplois remplacés

D'ici 2027

Non spécifié, probable

Fortune

Larry Fink (CEO BlackRock, 2025)

Restructuration des emplois de cols blancs d'ici 2035.

D'ici 2035

Oui

Forbes

McKinsey (2017, actualisé)

15 % des heures travaillées automatisées

D'ici 2030

Oui, impact sur les tâches cognitives

McKinsey

Signalons tout de même que ces pertes d'emplois devraient s'accompagner de créations de nouveaux emplois, mais de fait je crois qu'en l'état personne n'en sait rien !

Par ailleurs, toutes les analyses/prévisions ont toujours une approche économique, sans grand rapport avec le drame réel que vivent les gens qui perdent leur emploi. J'ai donc demandé à ChatGPT de me présenter un tableau mentionnant les indicateurs non économiques :


📊 Tableau des impacts non économiques de la perte d’emploi liée à l’IA

Dimension

Indicateurs non économiques

Conséquences observées

🧠 Psychologique

- Estime de soi
- Dépression / anxiété
- Stress chronique
- Sentiment d’inutilité

- Dévalorisation personnelle
- Troubles de santé mentale
- Perte de confiance

🧍 Sociale et relationnelle

- Isolement
- Conflits familiaux
- Moins de liens sociaux
- Stigmatisation

- Retrait du cercle social
- Tensions conjugales
- Exclusion ou honte

🧭 Sens et trajectoire de vie

- Crise de sens
- Perte de cap personnel
- Projets de vie interrompus

- Désorientation
- Difficulté à se projeter
- Renoncement à l'avenir

🧩 Cognitive et comportementale

- Baisse d’attention
- Démotivation
- Addictions ou comportements à risque

- Difficultés de reconversion
- Augmentation des troubles du comportement


À noter que ces indicateurs sont interconnectés, puisqu'une perte d'emploi peut facilement déclencher un effet domino... Or une réalité ne proposant plus assez de travail pour tout le monde fait-elle encore sens ? Et dans un tel contexte, au niveau personnel, comment chacun(e) va relever le défi qui consiste à donner un sens à sa vie ?

Car le travail est bien plus qu’un revenu : c’est un soutien identitaire, social, psychologique. Lorsque l'IA remplace ou transforme les emplois, il ne s'agit plus seulement d'ajuster des "coûts", mais de préserver la dignité, l'intégrité psychique et les relations humaines des individus concernés.

*

C'est la raison pour laquelle, en m'interrogeant sur l'identité du travail dans cette nouvelle donne due à l'avènement de l'IA, je me suis remémoré la pensée sur le travail exprimée par Hannah Arendt dans La Condition de l’homme moderne (The Human Condition, 1958).

Écrite dans le contexte de la guerre froide, après les totalitarismes du XXe siècle et face aux bouleversements technologiques en cours (automatisation industrielle, déjà, débuts de l’informatique, conquête spatiale) ainsi qu'à l’essor de la société de consommation, l’œuvre s’interroge sur la place de l’homme dans un monde en mutation rapide.

Son analyse, bien qu’enracinée dans les années 50-60, reste plutôt actuelle face à l’émergence de l’IA, des algorithmes et de la société numérique, ce qu'elle aurait appelé la « technoscience », qu'elle considère une nouvelle menace potentielle pour la liberté humaine et qui transforme le rapport de l’homme au monde : elle ne la rejette pas en elle-même, mais s'interroge sur la domination croissante de cette technoscience et son impact sur la vita activa et sur le sens de l’existence humaine.

Dans la tradition millénaire de la philosophie grecque (Aristote, Platon), qui différenciait la vita activa de la vita contemplativa, Hannah Arendt reformule cette distinction pour répondre aux enjeux de la modernité, en renversant la hiérarchie classique : chez les grecs, la vita contemplativa – associée à la contemplation, à la pensée théorique et à la recherche de la vérité était considérée supérieure à la vita activa, qui restait subordonnée à la première, bien qu’essentielle pour la vie en communauté.

Arendt, en revanche, conteste la suprématie de la vie contemplative en lui reprochant de rechercher une vérité universelle, souvent au détriment de l’expérience humaine concrète, et remet au premier rang la vie active, qui s'articule en trois dimensions, le travail (labor), l'œuvre (work) et l'action (action) :

  • Le travail (labor), défini comme activité cyclique liée à la survie (manger, se reproduire, subvenir aux besoins biologiques), est éphémère et asservissant (l’homme reste prisonnier de la nécessité) ;
  • L’œuvre (work), définie comme production d’objets durables destinés à survivre à leur créateur et à façonner le monde humain (monde vs. nature), introduit de la stabilité dans l’existence et donne un sentiment d’utilité et de permanence ; 
  • L’action (action), définie comme activité purement humaine et liée à la pluralité et à la politique, repose sur la parole (délibération, récit), l’initiative (commencer quelque chose de nouveau) et la relation aux autres (agir ensemble, sans but utilitaire). C’est le domaine de la liberté et de la singularité (chaque action est unique), qui fonde la polis (l’espace public). 

Je vois cependant un problème terminologique dans la traduction choisie - et acceptée - des catégories labor et work, rendues respectivement par travail et œuvre, que je traduirais pour mon compte par labeur et travail. Loin de moi l'idée de critiquer Georges Fradier, premier traducteur français de The Human Condition (1958) d’Hannah Arendt, publié en 1961 aux éditions Calmann-Lévy sous le titre La Condition de l’homme moderne.

Même si je pense que les termes labeur et travail correspondraient mieux à la réalité d'aujourd'hui. Cela dit, en 2025, le monde s'est extrêmement complexifié depuis les années 60, et il n'est plus possible de faire rentrer l'ensemble des activités humaines dans trois catégories ! En revanche la perte des emplois évoque davantage, selon moi, la grande difficulté de satisfaire les deux premiers niveaux de la pyramide des besoins selon Maslow : les besoins physiologiques (manger, boire, dormir…), et les besoins de sécurité (abri, stabilité…).

D'où l'impossibilité de parvenir aux trois niveaux supérieurs [besoins sociaux (appartenance, amour…), d'estime de soi et d'accomplissement de soi], tant que les besoins de base ne sont pas réalisés !


D'aucuns me diront que cette théorie est simpliste, critiquée, tout ce que vous voulez. Mais pour avoir vécu moi-même ce qu'elle décrit, je la trouve tout à fait pertinente. L'enchaînement des malheurs va parfois très vite...

Car que faire lorsque l’intelligence artificielle écrit seule des textes, génère des images, automatise des services, remplace des métiers, etc., en bouleversant tous les repères de notre économie fondée sur la productivité : tu produis = tu perçois une rémunération ; tu ne produis pas = tu ne vaux rien. Un raisonnement hérité de la révolution industrielle, mais qui domine toujours notre culture et nos politiques.

Ou lorsqu'une startup, Mechanize, conçoit l'idée même de développer des environnements de travail virtuels qui permettront l'automatisation complète de tous les secteurs économiques, pour remplacer, PARTOUT, l'ensemble des travailleurs humains !? Et après ?

On fait quoi des milliards d'humains laissés sur le carreau ? Si des millions de tâches peuvent être effectuées sans nous, que faisons-nous des personnes qui les occupaient hier ? Si la santé, l’éducation, la création ou la solidarité sont peu ou pas rémunérés, est-ce que ça signifie que ces secteurs sont inutiles et ne valent plus rien ? Quel sens donner à l'éclosion des déserts médicaux, des friches incultes, des lieux abandonnés ou poubellisés, et d'autres non-lieux chers à Marc Augé ?

Pendant des siècles, l’emploi fut la clé d’entrée dans la société : un statut, un salaire, une dignité. Mais aujourd’hui, à mesure que les algorithmes remplacent les bras et les cerveaux, ce lien entre activité économique et reconnaissance sociale se fissure. Et avec lui, l’idée même de valeur humaine.

En Italie, l'Article premier des Principes fondamentaux de la Constitution de la République italienne (1er janvier 1948) proclame :

« L'Italie est une République démocratique, fondée sur le travail. »

Le principe est grand, mais qu'en reste-t-il aujourd'hui ? Si peu, en Italie et ailleurs...

*

Je conclurai ce billet sur cette citation de Marc Augé :

« Si un lieu peut se définir comme identitaire, relationnel et historique, un espace qui ne peut se définir ni comme identitaire, ni comme relationnel, ni comme historique sera un non-lieu. »

Extrait de Non-lieux. Introduction à une anthropologie de la surmodernité (1992).

Notre terre est pleine de non-lieux. Nous en sommes tellement cernés que nous ne les voyons plus. Il y a surabondance : d’espaces (développement exponentiel des zones d’échange et de transit), d’événements (actualités permanentes), de références (infobésité, hyperinformation, uniformisation culturelle). Nous sommes en transit permanent. Les non-lieux sont les formes spatiales dominantes de la mondialisation et de la société de consommation.

Et tout comme pour notre rapport au travail, notre rapport au monde (automatisé) demande à être repensé, à reconsidérer la manière dont nous l'habitons, à retrouver du sens, de la mémoire et du lien dans ces lieux qui n'en sont plus.


mardi 15 juillet 2025

IA : le déclin des moteurs de recherche

page IA

IA inside

En 2010, dans un billet intitulé « Les chercheurs du Web de 3e génération », l'ami Laurent, un vieux de la vieille du SEO, avait demandé à plusieurs blogueurs (dont moi), de nous exprimer sur l'avenir du search en nous basant sur l'étude “Search of the future” publiée en décembre 2009 par Directpanel, sous-titrée : le moteur de recherche idéal vu par les internautes.

Je citais en préambule une série de trois billets, inspirés par Gord Hotchkiss, respectivement intitulés :
  1. Search Engine Results 2010
  2. Les moteurs de recherche innovent, pourquoi les marketers Web n’en font-ils pas autant ?
  3. Moteurs de recherche 2010
Dans ce dernier, je terminais ainsi la série :
La conclusion de ce qui précède est qu'il faut donc penser en termes de multipositionnement, non plus simplement sur le texte mais sur tous les éléments du palimptexte, une réalité qui n'a jamais existé jusqu'à présent, et dont nous avons encore bien des difficultés à appréhender toutes les implications pour notre présence Internet...

Ce n'est plus de simple écriture Web qu'il s'agit, mais plutôt d'ingénierie "scripturale" (linguistique, sémantique, technique, etc.). Interactive, et donc réactive. Adaptative. Selon les buts, les retours d'information, les événements, les destinataires, etc. Sans parler de localisation...

(...) Pour conclure, je vous laisse avec cette question : où sera positionné votre site sur la page de résultats de Google en 2010 (ce n'est qu'une projection, mais on comparera dans trois ans...) ?
*

Quinze ans plus tard, la question n'est plus vraiment d'actualité ! Car il est clair que les moteurs de recherche ne sont plus aussi pertinents qu'avant, à l'heure où le bon vieux SEO (Search Engine Optimization) laisse progressivement la place au GEO (Generative Engine Optimization) :
L'optimisation pour les moteurs conversationnels inclut le prompt engineering (créer des contenus qui anticipent les prompts des utilisateurs) ou encore la production de contenus difficiles à reproduire par l’IA, autrement dit des contenus qui se démarquent par leur rareté, leur profondeur humaine ou leur ancrage dans le réel, de sorte que les modèles d’intelligence artificielle ne peuvent pas les générer ou les imiter facilement.

En 2025, la nouvelle donne ne consiste plus seulement à séduire les moteurs de recherche classiques mais plutôt à rendre le contenu d'un blog ou d'un site accessible, compréhensible et utile pour les robots conversationnels (chatbots IA, assistants, modèles RAG, moteurs IA natifs, etc.).

Désormais, une grande partie du trafic Web passe par les agents conversationnels, qui ne fonctionnent plus comme Google : ils recherchent de la pertinence contextuelle, n’affichent pas de listes de liens, utilisent des modèles sémantiques, souvent basés sur la RAG (Retrieval-Augmented Generation).

En permettant d'accéder à des données récentes, cette technique de pointe fournit des réponses plus pertinentes, une capacité que de nombreux LLM pré-entraînés n'ont pas. Imaginez que vous gérez un géant de la vente en ligne comme Amazon. Vos clients posent fréquemment des questions sur les produits. Avec un inventaire en constante évolution, il est totalement impraticable de ré-entraîner un chatbot en permanence. C’est là que la génération augmentée par la récupération intervient, en récupérant rapidement les informations depuis votre base de données ou de connaissances pour générer ensuite une réponse à partir de ces informations. Cette approche réduit non seulement les coûts d’entraînement, mais garantit également une adaptation fluide aux données dynamiques des entreprises modernes.

Lorsque je publiais Écrire pour le Web : quand vos lecteurs sont des moteurs…, il y a près de 20 ans, je n'imaginais pas qu'un jour les moteurs de recherche seraient devenus si vite obsolètes ! Aujourd'hui le bon titre serait Écrire pour le Web : quand vos lecteurs sont des IA !

En fait écrire un article IA-friendly signifie produire un contenu pensé pour être compris, utilisé, référencé ou synthétisé efficacement par une intelligence artificielle (qu’il s’agisse d’un moteur de recherche IA, d’un robot conversationnel ou d’un outil de résumé automatique). Cela implique des choix de forme, de structure et de fond qui maximisent la lisibilité par les humains et la pertinence pour les IA :

1. Contenu structuré et hiérarchisé

  • Utilisation claire de titres (H1, H2, H3)avec des mots-clés bien formulés.
  • Paragraphes courts, bien découpés.
  • Listes à puces, tableaux comparatifs, définitions.

2. Langage explicite et informatif

  • Éviter le flou, les phrases creuses ou trop abstraites.
  • Privilégier un style pédagogique.
  • Définir les termes clés dans l’article, même s’ils semblent évidents.

3. Ancrage contextuel et actualité

  • Mentionner des dates, tendances, faits récents.
  • Citer des sources ou outils reconnus (ex. : McKinsey, Perplexity, Statista, Gartner...).

4. Optimisation sémantique

  • Utiliser les cooccurrences naturelles autour du sujet (ex. pour "IA", employer aussi : modèle de langage, machine learning, automatisation, hallucination, etc.).
  • Employer le champ lexical attendu par les IA (enrichir sans "bourrage de mots-clés").

5. Inclure des formats digestes pour IA

  • TL;DR (résumé en début ou fin).
  • Q&R : sections sous forme de question-réponse.
  • Encadrés explicatifs ou citations de sources.

En résumé, un article IA-friendly est clair, structuré, riche en contexte, optimisé sémantiquement, et aligné avec les tendances de l’écosystème IA, dans le but d'être capté, synthétisé ou cité par des outils IA — ce qui améliore votre visibilité dans un monde où les lecteurs sont aussi des machines.

*

Comment en est-on arrivés là ? Parce que nous sommes passés du moteur de recherche au moteur de réponse : avant, les moteurs comme Google proposaient une liste de liens à explorer. A présent, grâce à l’IA générative, les utilisateurs reçoivent des réponses directes, synthétisées et contextualisées.

Cela génère moins de clics vers les sites Web, les utilisateurs restant dans l’interface de l’IA pour obtenir l’information qu'ils souhaitent. Une interface utilisateur qui évolue : au lieu de taper des mots-clés, on pose des questions complètes ou on engage un dialogue avec une IA, l'interaction devient conversationnelle.

Le SEO traditionnel, basé sur les mots-clés et le positionnement dans les SERP, est devenu moins central, d'où la nécessité d'optimiser le contenu pour l’IA, et plus seulement pour les moteurs classiques. Quant aux moteurs basés sur l’IA, ils peuvent adapter leurs réponses à l’historique, aux préférences ou au contexte de l’utilisateur, en fournissant des résultats plus subjectifs, contextuels et dynamiques, ce qui remet en cause l’idée de « classement universel » des résultats. Rappelez-vous les débuts de Yahoo!

*

En produisant des réponses synthétiques, les IA, qui citent parfois leurs sources, et parfois non, court-circuitent les sites sources. Cette désintermédiation du Web génère moins de trafic vers les sites Web classiques, menace le modèle économique des éditeurs de contenu (publicité, affiliation), et exige de repenser les stratégies de visibilité en ligne.

De nouveaux écosystèmes de recherche se créent, des alternatives à Google gagnent du terrain, comme Perplexity AI, You.com ou Brave Search (avec réponse IA intégrée), ou des assistants comme ChatGPT avec navigation web, Gemini, Copilot, etc. Désormais la recherche est multi-plateforme et multi-agent. Le “search” se déplace vers les applis, les robots conversationnels, les OS, voire les objets connectés.

Pour autant, ce nouveau panorama n'est pas exempt de risques : hallucinations (les réponses peuvent être fausses ou biaisées), opacité (la provenance de l’information devient floue), dépendance (il devient plus difficile de vérifier ou de diversifier ses sources), etc. Et tant que les outils d'IA n'améliorent pas la transparence et la citation des sources, c'est à l'utilisateur qu'il incombe d'adopter une posture plus critique.

En clair :

Avant (Web classique)Après (Recherche avec IA)
Liste de liensRéponse directe
Mots-clésLangage naturel
Résultat fixeRésultat dynamique
SEO centré sur GoogleOptimisation multi-agent
Clics vers les sitesInteraction dans l’IA


IA : l'ignorer ou s'en moquer ne la fera pas disparaître !

J'ai récemment rencontré deux réactions sur l'IA qui m'ont laissé particulièrement perplexe :

1. J'ai ouvert un fil de discussion sur la première place de marché en ligne dédiée aux traducteurs (plus d'1,5 million de membres), pour tester un peu la réactivité de la profession : très peu de réponses, et cette réaction, « chaque fois qu'on me parle de l'IA, je rigole... »

2. Je me suis permis de signaler à une traductrice de métier dont les positions me semblaient justes, mon dernier billet intitulé « AI Invasion in the Translation and Localization Market: a Seismic Shift for Freelancers, LSPs and End Clients ». Retour : « Je suis désolée, mais si je vois "co-écrit avec ChatGPT", je passe mon chemin. Pourquoi lire quelque chose qui n'a pas été écrit ? »

Ma réplique, un peu piquée, il est vrai :

Piètre réaction ! Ça me fait penser à ces traducteurs, il y a des années, qui refusaient les premiers traitements de texte parce qu'ils préféraient leur machine à écrire... C'est pas comme ça que le métier avancera ! Par ailleurs, il est tout à fait faux de prétendre que "ça n'a pas été écrit" : j'ai passé plus de deux jours sur ce billet, pour le rédiger et lui donner sa cohérence. Les passages de ChatGPT ont été incorporés là où je le souhaitais. Donc une réaction intelligente serait de dire "je lis ce billet et je le critique, en soulignant ce qui est faux". Ça, j'accepterais volontiers. Mais le refuser a priori parce qu'il y a des mentions de ChatGPT ne fait pas avancer le schmilblick, loin de là. Désolé pour la franchise.

*

Je vais donc essayer de démêler l'écheveau des idées préconçues qui ne mènent nulle part, sinon droit dans le mur...

Sur le premier point, c'est risible, justement. Que ça prête à sourire, pourquoi pas ? Beaucoup de sujets sérieux peuvent prêter à sourire. Mais ne surtout pas sous-estimer ce que j'ai qualifié de troisième révolution civilisationnelle. Pour faire bref, il conviendrait de passer du rire à la réflexion.

Le deuxième point est bien plus insidieux et demande une réponse approfondie. Dans tous les cas, cette simple "remarque" suscite en moi quantité d'observations, dont la première est qu'elle est fausse. Totalement. Ce serait comme ignorer les suggestions d'un correcteur orthographique (étape obligatoire pour tout traducteur qui se respecte), au prétexte que ce n'est pas un humain ! C'est un outil, l'IA aussi est un outil. Et comme tous les outils, elle n'est ni bonne ni mauvaise en soi, sa qualité dépend de l'usage qu'on en fait. L'analogie avec le couteau est très parlante : un couteau peut servir à couper du pain ou à blesser quelqu’un, or ce n’est pas le couteau qu’il faut accuser, mais la main qui le tient. Idem pour l'IA...

Dans un vieux texte, qui remonte aux années 90, sur la CAO (Création Assistée par Ordinateur), Jacques Lacant disait ceci : 

… mais peut-être qu'au lieu d'être menacée par l'ordinateur la liberté créatrice pourrait mieux s'épanouir grâce aux moyens accrus qu'il met à sa disposition. Refuser, de peur d'empiètements, ou par principe, le concours d'une branche aussi féconde de la science moderne, ce n'est certainement pas la voie de l'avenir…

Applicable à l'IA à la lettre !

Mais il y a un autre point que je ne peux passer sous silence quant à un texte qui n'aurait pas été écrit.

J'écris depuis que je suis adolescent. J'ai 68 ans à présent, j'écris donc depuis plus de 50 ans, surtout de la poésie (pas loin de 20 recueils, pratiquement jamais publiés), le contenu de ce blog à lui seul dépasse un million de mots, j'en ai traduit 20 autres millions en quarante ans, et je n'ai pas toujours le mot juste sous la main, au bon moment. Je lis beaucoup aussi. Par passion, personnelle et professionnelle. Il m'arrive d'ailleurs, assez souvent, de trouver chez les autres des phrases ou des paroles si parfaites que j'aurais tant aimé les écrire moi-même. Que fais-je dans ces cas-là ? Je les prends et je les fais miennes !

Extrait d'un poème à ma femme :

j'ai fait miennes les plus secrètes émotions
des plus magnifiques poèmes
des poètes de toujours

je te les donne

Idem avec ChatGPT : lorsque je trouve des raisonnements pertinents et que je décide de les insérer dans mon texte, je les fais miens. Cela signifie que je me les approprie, et que lorsque je publie un texte avec des mentions de ChatGPT ou de n'importe quelle autre IA dedans, j'en assume la paternité, en toute conscience. Ce n'est pas pour rien que je signe tous mes billets ! Donc venir me dire Pourquoi lire quelque chose qui n'a pas été écrit ? est une insulte à mon intelligence et à mon discernement. Inacceptable. Absolument inacceptable.

Je vais devoir m'inventer IA inside...

Refuser a priori un texte coécrit avec l’IA, c’est aussi refuser, de fait, une forme agrégée de la mémoire et des savoirs humains...

Les LLM sont entraînés sur des milliards de pages issues de livres, d’articles, de dialogues, de codes, d’essais… C’est un miroir, imparfait mais puissant, de la connaissance humaine.

Penser Pourquoi lire quelque chose qui n'a pas été écrit ? revient à refuser de lire un texte influencé par des milliers de bibliothèques, des siècles de pensée, et qui porte trace du collectif humain. 

Fi du déni ! Dans cette phrase, la négation n'est pas au bon endroit : « Pourquoi ne pas lire quelque chose qui a été écrit ? »

*

En conclusion, l'IA est là, et elle va y rester. Elle va même envahir nos vies de plus en plus, dans tous les aspects, tous les secteurs, toutes les langues, les cultures, à un rythme exponentiel, comme un tsunami inexorable ! Nier son existence n'aide en rien à appréhender le phénomène, à s'y préparer et apprendre à vivre avec, en développant notre capacité collective à comprendre, critiquer et utiliser les outils actuels (et ceux qui viendront) de manière responsable.



lundi 14 juillet 2025

AI Invasion in the Translation and Localization Market: a Seismic Shift for Freelancers, LSPs and End Clients

AI page

Post written in co-authorship with ChatGPT

The translation and localization market now sees competition among freelance translators, LSPs and AI-based MT systems, shifting dynamics from the traditional freelancer-LSP rivalry and reshaping competitive landscape. This new context offers freelancers opportunities to compete directly with LSPs for the benefit of end clients. Analyzing this situation involves assessing market trends, freelancers advantages, LSPs challenges, and strategies for end clients to capitalize on the opportunity.

*

Freelancers advantages

The new competition among freelance translators, LSPs, and AI-based MT systems presents a significant opportunity for freelancers to compete directly with LSPs. By leveraging their expertise in niche areas, embracing AI collaboration, building a strong personal brand, and educating clients on AI’s limitations, freelancers can differentiate themselves in a crowded market.

Challenges like price pressure and upskilling requirements are real, but strategic approaches—such as focusing on high-value tasks and diversifying services—can position freelancers for success, by leveraging their unique strengths, such as specialized expertise and personalized service, while adapting to AI’s presence. The evidence from 2025 industry sources (GetBlend, TranslaStars, etc.) supports the view that freelancers who adapt to this AI-driven landscape can thrive by offering what neither AI nor LSPs can fully replicate: human insight and tailored quality.

Currently, the market splits into:

  • Low-risk, high-volume content that clients now handle in-house.
  • High-risk, specialized content (legal, medical, creative) requiring human judgment.

Freelancers can position themselves on the second segment, as AI advisors, experimented-review translators, or transcreation specialists, offering value beyond what automated pipelines can deliver:

Dear Client, you’ve already automated 80% of the process. I’m the 20% that protects you from legal, linguistic, and reputational risk.” 

Freelancers have more than ever a strategic role to play because they are:

  • Experts in niche verticals (e.g., legal, technical, medical)
  • Agile and able to adapt faster than LSPs
  • Closer to end clients and more relationship-driven
  • Building personal brands and trust (something LSPs can't replicate)

As freelancers leverage AI to improve productivity, not replace quality, they can undercut LSPs while offering more value.

For general content (manuals, FAQs, e-commerce copy), clients no longer use a human translator. Or a project manager. Or a vendor coordinator. They just use a clean pipeline: AI + basic QA. That’s it.

But they still need post-editing. And they absolutely cannot and should not profit from it: it's neither a "compromise" nor a race to the bottom. LSPs impose reduced rates on translators, while holding them fully responsible for the final quality. This is not innovation. It's exploitation. Clients must act differently, fairly and responsibly.

As freelancers, we are evolving:

  • We’re mastering AI-enhanced workflows.
  • We offer subject-matter expertise, not just language skills.
  • We’re building direct client relationships based on trust, responsiveness, and niche specialization.
  • And we can do this without the overhead—or the markup—of a middleman.

LSPs still believe they’re the future of this industry. But in truth, unless they rethink their role, they may be the ones left behind. The new competition isn’t Freelancers vs. LSPs. Or Freelancers vs. AI. It’s LSPs vs. irrelevance.

#Translation #Localization #FreelanceTranslation #AI #MT #LanguageIndustry #ThoughtLeadership #LSP #Disruption

*

LSPs challenges

We often hear that freelance translators are being squeezed out—first by LSPs, now by AI. But here’s the real twist: AI isn’t just disrupting freelancers. It’s coming for LSPs too. Many Language Service Providers still underestimate how profoundly AI is eroding their core value proposition. For years, LSPs thrived on delivering speed, volume, and lower cost. Now AI can do that better—and without the overhead.

Let’s be honest, LSPs may not fully understand the competitive dynamics of AI-based MT systems, that they too are risking their survival against the AIs and particularly how their misuse of AI only as a cost-cutting tool undermines their own position. They still underestimate the true threat posed by AI-based Machine Translation (MT) systems to their own business model. Here are the key points LSPs often fail to grasp:


🔍 1. AI Disrupts Their Core Value Proposition

Most LSPs have traditionally sold Speed + Scale + Cost-efficiency”

But AI does this faster, cheaper, and (in many cases) “good enough” for general content. If their value proposition is indistinguishable from what AI now provides, they have nothing left but:

  • Project management overhead
  • Sales volume
  • Subcontracting workflows

This makes them obsolete at worst, and interchangeable at best.


💣 2. AI Eats the Low-End — Their Revenue Base

LSPs make much of their margin on:

  • Bulk translation (e.g., manuals, FAQs, marketing copy)
  • High-volume, low-complexity work (tech docs, e-commerce, subtitles)

AI is already better and cheaper at these. So, their high-volume revenue base is being eroded without a clear pivot to high-value services like:

  • Legal
  • Medical
  • Compliance-heavy translation

AI is so impressive, when systems like Google Translate are able to process 100 billion words daily, or like Deepl who translates 60 million words in only two seconds, are LSPs truly ready for that shift?


⚙️ 3. AI Is Also Automating LSP Processes

What LSPs don’t realize is that the backend of their business is also being automated:

  • Quote generation
  • File prep
  • Post-editing
  • QA
  • Vendor management

SaaS platforms and AI integrations are enabling clients to skip LSPs entirely by automating the entire flow in-house or via AI-integrated CAT tools.


🤖 4. AI + Direct Client = LSP Disintermediation

Clients are increasingly:

  • Using DeepL, Google Translate, ModernMT themselves
  • Hiring post-editors or QA specialists directly
  • Asking freelancers to use AI to lower rates

Which means the LSP layer is being bypassed. LSPs are losing control of the value chain.


🧠 5. They Misunderstand What Clients Want from Human Translators

Clients are not looking for "just translation" anymore. They want:

  • Legal and regulatory accuracy
  • Subject-matter expertise
  • Cultural and contextual insight
  • Accountability and confidentiality

Freelancers can offer that. LSPs struggle to scale it, because they rely on interchangeable vendor pools and can’t guarantee consistent expertise.


📉 6. Post-Editing is a Race to the Bottom

LSPs often push post-editing of MT (PEMT) to freelancers:

  • At rates far below real translation
  • While still holding them fully accountable

But the output quality of AI is inconsistent, the work is mentally exhausting, and liability remains with the human.

This creates a toxic business model* that is bad for the translator — and unsustainable long term.


💼 7. They Underestimate the Strategic Role of Freelancers

Freelancers are:

  • Experts in niche verticals (e.g., legal, technical, medical)
  • Agile and able to adapt faster than LSPs
  • Closer to end clients and more relationship-driven
  • Building personal brands and trust (something LSPs can't replicate)

As freelancers leverage AI to improve productivity, not replace quality, they can undercut LSPs while offering more value.


⏳ 8. They Are Not Innovating Fast Enough

For sure the biggest LSPs may invest in AI or build proprietary MT engines, but the majority of tehm are stuck, because they're:

  • Not integrating AI meaningfully
  • Still reliant on outdated TMS/CAT workflows
  • Failing to build new pricing models

So they are being overtaken from both ends:

  • Upmarket by global tech firms building in-house localization teams
  • Downmarket by AI and freelancers using modern workflows


In this context, it won't be long before LSPs become completely useless:

  • Their core volume services (support docs, marketing copy, internal comms) can now be handled internally by clients using SaaS + AI.
  • Their value-add services risk commoditization as clients build internal capabilities.
  • Their project management roles are eroded by automation, from vendor assignment to delivery workflows.

*

End Clients: strategies to capitalize on the opportunity

As we said above in point 3., SaaS platforms and AI integrations are enabling clients to skip LSPs entirely by automating the entire flow in-house or via AI-integrated CAT tools.

Yes, clients can—and increasingly are—bypassing LSPs entirely. Advanced localization SaaS platforms plus AI agents are enabling clients to automate translation workflows from source to publish.

This should be a wake-up call for LSPs and an opportunity for freelancers: the frontier is no longer volume or speed — it's specialization, risk management, and human oversight.

Just see how clients are automating the entire localization flow:


1. AI-Orchestrated SaaS Localization Platforms

Platforms like Lokalise and OneSky now function as end-to-end localization hubs:

  • Lokalise uses AI to select optimal MT engines per content type, automates glossary enforcement, and integrates QA checks — all within cloud-native workflows tied to GitHub, Figma, Zendesk, etc.

  • OneSky’s OLA Agent automates parsing, translation, QA, and QA-triggering workflows directly from code repositories—reducing the need for human project managers.

These platforms let clients orchestrate translation, review, and deployment internally — without using an LSP.


2. Agentic & Workflow Automation in Localization Ops

Advanced systems now support end-to-end agentic automation:

  • Gridly and similar tools integrate AI suggestions, TM reuse, QA checks, and naming/version controls into translation workflows accessible to in-house teams.

  • OneSky’s AI Agent is already triggering automatic workflows: detect content changes, initiate MT, auto-route for QA, and even deploy to production—often without human intervention.


3. Built-In AI QA & Automation in CAT/Translation Tools

Modern CAT/TMS platforms embed built-in AI features:

  • Smartling, Phrase, TAIA, ClearlyLocal include predictive QA, visual context validation, and even formatting automation—reducing manual costs and delays.

  • Phrase and Clearly Local use intelligent routing: AI handles bulk QA tasks, while human reviewers focus on contextual, high-risk content.

These tools allow internal teams to manage localization pipelines autonomously — bypassing agency dependency.


4. End-to-End SaaS Localization Workflows

Clients increasingly adopt in-house or embedded localization workflows, including:

  • Automatic content detection via APIs (e.g., GitHub, WordPress, Figma)
  • AI translation + glossary-based consistency
  • Automated QA and LQA tasks
  • Instant deployment to multilingual products or websites
  • Built-in release orchestration and localization risk predictions

The result: product launches can include simultaneous language updates without manual overhead, using full automation where risk tolerance allows.


And this is just the beginning...

*

Times are changing, and fast. The translation and localization industry is undergoing its most dramatic shift in decades. Freelancers are more than ever at the forefront of the New Language Economy

AI is not just disrupting tasks — it's redrawing the power map. Clients are no longer tied to LSPs for speed and scalability. Automation, SaaS tools, and AI integration now deliver that directly.

But human expertise, contextual judgment, and legal accountability is not something you can build into a pipeline. That’s where freelancers step in — not as replaceable labor, but as strategic partners in a hybrid, high-risk, high-value localization world:

  • Freelancers win when they position themselves as AI-aware experts, not just vendors.
  • LSPs lose when they treat AI as a cost-cutting shortcut rather than a reason to reinvent.
  • Clients win when they combine the efficiency of AI with the expertise of niche freelancers.

The future is already here — and it's specialized, disintermediated, and human-led. Freelance translators who understand their unique value, adapt to new tools, and speak directly to client needs are no longer the industry's underdogs. They're its evolution.

The question is no longer “Will AI replace translators?”
It’s “Will LSPs keep up with translators who’ve already embraced AI?”


vendredi 11 juillet 2025

IA : le nouveau contrat social (qui ne sera jamais signé)

page IA

L'adoption de l'IA à tous les niveaux se fait de façon désordonnée, chaotique même, sans aucune réflexion, aucune planification. Que ce soient les gouvernements, les entreprises ou les particuliers, tout va trop vite, les progrès technologiques incessants et de plus en plus rapprochés ont des années-lumière d'avance sur la capacité humaine d'assimiler tout cela, avec des conséquences pour le moins sournoises.

Dans mon premier billet d'une longue série sur l'IA, intitulé « La troisième révolution civilisationnelle : l'intelligence artificielle (IA) », je n'ai pas choisi par hasard la notion de révolution civilisationnelle, quand bien même « civilisationnel » est un terme peu utilisé, probablement parce qu'il est censé décrire des phénomènes, des enjeux ou des transformations ayant un impact profond, global et durable sur une civilisation dans son ensemble.

Par essence, une révolution civilisationnelle est rare, mais lorsqu'elle se produit elle génère à la fois une urgence civilisationnelle pour l'humanité dans son ensemble, de même qu'un défi civilisationnel à relever par l'humanité dans son ensemble.

*

1. L'urgence civilisationnelle de l'IA

À ce jour, l'accélération phénoménale à laquelle nous assistons ne s'accompagne malheureusement d'aucune vision collective. L’intégration massive de l’IA dans les secteurs productifs, administratifs et sociaux transforme le tissu économique plus rapidement que notre capacité à en anticiper les effets humains. Or, les cadres actuels — réglementaires, sociaux, politiques — sont obsolètes. Le droit du travail peine à encadrer l’automatisation des tâches, la redistribution des gains de productivité est inexistante, et les citoyens se voient exclus des choix technologiques qui façonnent leur quotidien.

Cette absence de tout projet collectif renforce la défiance, les inégalités et la fracture démocratique, pour autant que l'on puisse croire que la démocratie existe encore...

Lorsque le rythme fulgurant des progrès technologiques et la formidable puissance économique de l'IA dépassent la capacité des sociétés humaines à réfléchir, réguler, absorber, ou même simplement comprendre ce qui se passe, cela crée un "gap d’assimilation" entre ce que la technologie permet et ce que la société peut moralement, culturellement et politiquement supporter, tant au plan collectif qu'individuel.

Or, inutile de nier que l'IA interroge en profondeur ce que nous sommes en reconfigurant tous les fondements de nos sociétés :
  • Le travail : automatisation massive, disparition ou transformation de millions d’emplois.
  • La connaissance : génération de contenus, fiabilité des savoirs, fin de l’expertise traditionnelle.
  • La décision : délégation croissante du jugement humain aux algorithmes (justice, sécurité, santé…).
  • L’identité et les relations humaines : confusion croissante entre ce qui est produit par l’homme et par la machine, société « sans contact », remplacement partiel des interactions humaines par des agents IA.
  • La politique : influence algorithmique sur l’opinion, surveillance, gouvernance par les données.
Il s’agit désormais d’un acteur structurant notre vie en société, personnelle et professionnelle. En partie encore silencieuse, mais massive, la rupture va bien au-delà de la sphère technologique, elle est anthropologique, sociale, politique ! L’IA est un levier de transformation systémique remettant en question les structures qui distinguent l’humanité - le travail, la justice, la liberté, la coopération et la survie dans un monde écologiquement fragile -, de même qu'elle redéfinit "notre contrat social", ou pour le moins ce qu'il en reste. Le tout à une rapidité sans précédent...

*

2. Le défi civilisationnel posé par l'IA

Si l'on veut (pour peu qu'on le puisse encore) transformer cette urgence en opportunité, nombreux sont les défis que l'humanité devra relever pour y répondre. Parmi les mesures idéales :

  • mener une réflexion anthropologique sur ce que signifie être humains dans un monde de machines ;
  • réfléchir à une régulation démocratique, pour concevoir un cadre collectif où l’IA sert l’intérêt général, respecte les droits humains et implique une participation citoyenne dans la définition de ses usages, limites et finalités ;
  • concevoir une redistribution des finalités, où la technologie est au service d'un projet de société humain, et non l’inverse ;
  • ralentir et aménager des pauses pour retrouver du temps commun, du sens partagé, de l’intelligence collective.

a) mener une réflexion anthropologique

L'anthropologie se rapporte à l'étude de l'être humain dans toutes ses dimensions : comportements, sociétés, cultures, croyances, etc. L'IA, qui est censée être conçue par des humains (pour l'instant) et pour des humains, n'est jamais neutre. De fait, une IA est entraînée sur des données humaines (textes, images, vidéos, comportements numériques) qui reflètent nos biais, nos stéréotypes, nos cultures dominantes, etc. Il y a actuellement une forte inquiétude sur des publications polémiques de Grok en matière de racisme, qui pourrait donner lieu à l'ouverture d'une enquête de la Commission européenne... 

Tout cela est lié de très près ! Nvidia vient juste de passer le cap des 4000 milliards de dollars de capitalisation (elle était à 1000 milliards il y a tout juste deux ans), uniquement parce que c'est le géant des puces (oxymore ?) destinées à l'IA qui fait exploser son chiffre d'affaires et ses bénéfices trimestre après trimestre, malgré les restrictions sur les puces chinoises. Très bien, elle arrivera sûrement à dix mille milliards, cent, que sais-je ? Mais pour quoi, et pour qui ? Pour garnir les poches de Jensen Huang ? Mais qu'en sera-t-il des 8 autres milliards d'humains sur la terre ?

Il y a à peine plus d'un mois, DeepL s'associait à Nvidia pour traduire l'ensemble du Web en moins de 20 jours ! Maintenant DeepL traduit en moins d'une seconde les 20 millions de mots que j'ai mis 40 ans à traduire, en allant 1,89 milliard de fois plus vite que moi ! Très bien, mais à quoi sert la suprématie traductionnelle, et à qui ?

Ce matin j'ai reçu un message d'un grand groupe de traduction (LSP), adressé à l'ensemble des collaborateurs, pour nous prévenir qu'ils avaient adopté la post-édition automatique... Or vu qu'ils ne sont pas encore sûrs et certains de la qualité finale, ils nous demandent de devenir des post-éditeurs de leur post-édition automatisée !!! Cette nullité au carré a pourtant un but : atteindre tôt ou tard un produit 100% automatisé, juste pour supprimer 100% des traducteurs et engranger toujours plus d'argent. Ce qu'ils ne comprennent pas, c'est que le jour où ils n'auront plus besoin des traducteurs, les clients n'auront plus besoin d'eux non plus ! 

Donc je répète ma question : à quoi tout cela sert-il, et à qui ? Face à ces exemples par milliers où chacun scie la branche sur laquelle il est assis, comment ne pas comprendre la nécessité de mener une réflexion anthropologique si l'on veut sortir d'une telle absurdité ? 


b) réfléchir à une régulation démocratique

C'est le pendant du paragraphe précédent, qui va même au-delà de l'IA : comment penser et réguler le progrès technologique au XXIe siècle pour mieux l'humaniser ? En sachant que toute régulation doit aussi être le fruit d'un compromis : trouver l'équilibre entre innovation et régulation pour éviter d'étouffer les start-ups ou freiner la recherche. Il n'empêche, l'objectif ne peut pas - plus - être seulement économique.

Il s'agit de concevoir un cadre collectif où l'IA servirait l’intérêt général, dans le respect des droits humains, et avec une véritable participation citoyenne à la définition de ses usages, limites et finalités. Cela permettrait de rééquilibrer le pouvoir technologique, de protéger les citoyens et de repolitiser les choix algorithmiques, aujourd’hui largement délégués à des acteurs privés et techniques.

Pour illustrer ce propos, puisque l’IA affecte des aspects fondamentaux de la vie collective (emploi, santé, justice, information, sécurité, etc.), les décisions sur son développement ne peuvent pas être seulement technocratiques ou dictées par des intérêts commerciaux, il s’agit de garantir la souveraineté collective sur les systèmes qui nous gouvernent de plus en plus directement ou indirectement.

Car la régulation seule ne suffit pas si on ne s’interroge pas aussi sur le "pour quoi faire" de la technologie et "pour qui" (reprise du pour quoi et pour qui du petit a). Sans ce questionnement, comment croire un seul instant que la société cessera d'elle-même de subir les buts qui lui sont imposés (par le marché ou autres décideurs en tous genres) pour reprendre en main ses destinées en cessant de se contenter de poser des limites et en commençant à définir activement ce qu’elle veut faire de ses technologies, pour que celles-ci redeviennent des politiques au service du bien commun.

La régulation démocratique, c'est le contrôle du "comment" : qui décide, comment on encadre les usages, quelles limites on impose, comment on protège les droits, mais sans remettre en cause les finalités implicites de l’IA (efficacité, automatisation, rentabilité, croissance, etc.). Le pour quoi et pour qui consiste à réorienter vers un changement de cap, qui ne soit pas uniquement un frein ou une barrière.

Coïncidence, la Commission européenne vient de publier un cadre volontaire (non obligatoire pour l’instant), visant à guider les entreprises dans la mise en conformité anticipée, à encourager les bonnes pratiques éthiques et techniques, tester les obligations à venir dans un cadre souple, créer une culture commune de la régulation avant l’obligation légale, et donner un avantage aux acteurs qui s’aligneront tôt, en matière de réputation, d'accès au marché ou d’innovation responsable.

La loi sur l'IA est une réglementation contraignante sur l'intelligence artificielle votée par l'UE : entrée en vigueur en 2024, elle s'applique progressivement jusqu’en 2026, date à laquelle elle deviendra pleinement applicable.

Le Wall Street Journal en parle déjà, et OpenAI et Google ont annoncé qu'ils étudieraient le document pour décider si le signer ou non... 

Dans un autre registre, le Pape Léon XIV demande une « gouvernance coordonnée de l'IA » à l'occasion du Sommet AI for Good 2025 , qui se conclut aujourd'hui (Genève, 7-11 juillet 2025), en insistant sur l’importance de développer l’intelligence artificielle avec « responsabilité et discernement ». Nous sommes en plein sujet !

Des initiatives privées se font également jour pour encadrer la matière.


c) concevoir une redistribution des finalités

Cette "reconstruction" consiste essentiellement à :
  • se demander à quoi l’IA devrait vraiment servir (au regard de l’intérêt général, de la justice sociale, de l’écologie, etc.)
  • interroger des dimensions ignorées par la logique de marché (favoriser les débats autour de l'IA, ralentir les flux, cultiver le discernement, préserver l’attention)
  • se donner le droit de dire : « Nous voulons une IA qui serve et desserve … autre chose que la performance. »
  • favoriser dans les médias le pluralisme d’opinion, ralentir la diffusion de l’information, renforcer les analyses critiques, etc. (je sais, je rêve...)
Quelques pistes pour inverser le sens des finalités (des technologies vers l'humain, et non le contraire), en repensant :
  • les finalités du travail dans la société : à présent, les choix techniques orientent trop souvent les choix sociaux, on déploie une technologie parce qu’elle existe, parce qu’elle est rentable ou innovante, sans se demander si elle est vraiment souhaitable, et pour quoi et pour qui
  • la place de la décision humaine, en remettant les besoins sociaux, écologiques et démocratiques au centre des choix techniques : communs technologiques (logiciels libres, infrastructures partagées), soutien public à des innovations ayant un impact social, etc.  
  • mettre la technologie au service de projets humains concrets : définir d’abord un projet de société humain et soutenable, et choisir ou concevoir ensuite les technologies pouvant y contribuer (projets de justice sociale, de sobriété écologique, de renouveau démocratique…)
En clair, ce n’est pas à la société de s’adapter aux technologies, mais aux technologies de répondre aux choix collectifs de société, le progrès n’est plus ce que permet la technologie, mais ce que choisit la société. Pour sortir collectivement du pilotage automatique de l’innovation et reprendre la main sur le monde que nous voulons construire...


d) ralentir et aménager des pauses

J'ai mentionné plus haut mon premier billet de cette longue série sur l'IA (loin d'être terminée), le second s'intitule : « Le temps de la réflexion ». Ne pouvant pas le reporter ici dans son intégralité (je vous conseille cependant de le lire si vous avez deux minutes à perdre), je me contenterai de mentionner la conclusion :

« J'ai commencé ce billet en citant Paul Virilio, je conclurai de même :
Le temps humain n'est pas le temps des machines. Avant, le temps humain, c'était le passé, le présent, le futur. Aujourd'hui, c'est du 24/24, du 7 jours sur 7, c'est l'instantanéité. Ça explique combien il est difficile de vivre, de tout concilier... Il faut se laisser le temps de réfléchir, le temps d'aimer... »

Le temps d'aménager des pauses pour retrouver du temps commun, du sens partagé, de l’intelligence collective !

*

Que de belles paroles, me direz-vous. Rassurez-vous, je ne suis pas dupe, je sais parfaitement qu'elles sont à la limite de l'utopie, mais imaginez un instant Jean-Jacques Rousseau, lorsqu'il écrit « Du Contrat social » et le publie en 1762, alors en rupture et en opposition à l'absolutisme monarchique, à l’inégalité sociale et à la domination des élites.

Vous voyez une différence avec les temps présents ? 

Ou encore, en 1755, dans son Discours sur l’origine et les fondements de l’inégalité parmi les hommes, lorsqu'il critique la société civile comme étant le lieu où les inégalités se sont instituées.

Vous voyez une différence avec les temps présents ? 

Donc si l'on en parle toujours deux siècles et demi plus tard, l'idée de créer un nouveau contrat social tenant compte de la révolution de l'IA n'est certainement pas moins utopique aujourd'hui qu'elle ne l'était au temps de Rousseau pour les raisons qui l'occupaient.  

Et lui qui tentait, déjà, de repenser les fondements légitimes de l'autorité politique, il nous offre encore un socle de réflexion robuste pour repenser le rapport entre individus, société et pouvoir. 

Certes, le contrat social n'a cessé d'évoluer depuis l'époque, mais l’IA, la robotisation, les plateformes numériques et la mondialisation des données altèrent profondément le cadre tacite du contrat social post-industriel :

  • Le travail n’est plus le seul vecteur d’intégration sociale
  • Les décisions qui nous affectent sont prises par des algorithmes opaques, souvent sans débat public
  • La puissance des grands acteurs de l'IA et des multinationales dépasse de plus en plus celle des États
  • Les règles fiscales, éthiques et juridiques sont inadaptées à la vitesse de l’innovation

J'ai demandé à ChatGPT quels devraient être les grands piliers que le législateur devrait formaliser. Voici la réponse :

Pilier

Exigence démocratique

Souveraineté numérique

Droit collectif à la transparence, au contrôle des algorithmes, à la maîtrise des infrastructures critiques

Équité sociale

Redistribution équitable des gains de productivité liés à l’IA (revenu de transition, taxation de l’automatisation, protection sociale élargie)

Participation active

Droit de chaque citoyen à participer à la régulation des technologies et à l’élaboration des normes

Reconnaissance du travail non marchand

Intégrer la valeur sociale des activités de care, de transmission, de bénévolat, etc.

Accès universel à la formation et à la reconversion

Reconnaître l’éducation et la montée en compétences comme un droit fondamental face aux transformations IA

Je n'aurais pas trouvé mieux :-)

En conclusion, le moment est historique. Il ne s’agit pas de "ralentir" l"innovation, mais d'opérer un choix collectif pour reprendre la maîtrise politique de ce que nous voulons en faire. Repenser le contrat social à l'ère de l’IA, c'est choisir ensemble ce que nous jugeons utile, juste, souhaitable.


*

Avant de terminer cette réflexion, je voudrais laisser une idée à votre attention. J'ai demandé à 7 IA (ChatGPT, Gemini, Grok, Claude, Mistral, DeepSeek et Perplexity) de me rédiger une Charte internationale de l'IA. J'en ferai peut être un billet un jour, si ça me dit. Pour l'instant je me suis contenté de faire une analyse statistique des 7 textes proposés, et d'en extraire les termes significatifs les plus fréquents. 

Après avoir éliminé les mots "article", "charte", "internationale", "intelligence", "artificielle" et "IA" pour des raisons évidentes de surreprésentation, je vous propose le nuage sémantique pondéré des 70 termes les plus cités, créé par le regretté Wordle :


J'ai été très surpris de constater que le substantif le plus fréquent était Systèmes (48 fois au pluriel et 8 fois au singulier), et plus précisément systèmes d'IA

Le règlement IA les définit comme suit : « un système automatisé conçu pour fonctionner à différents niveaux d'autonomie, qui peut faire preuve d'une capacité d'adaptation après son déploiement et qui, pour des objectifs explicites ou implicites, déduit, à partir des données d'entrée qu'il reçoit, la manière de générer des résultats tels que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer les environnements physiques ou virtuels » (article 3).

Ainsi, comme mentionné au considérant 97 du RIA : « bien que les modèles d'IA soient des composants essentiels des systèmes d'IA, ils ne constituent pas des systèmes d'IA à eux seuls. Les modèles d'IA nécessitent l'ajout d'autres composants, comme par exemple une interface utilisateur, pour devenir des systèmes d'IA. Les modèles d'IA sont généralement intégrés dans les systèmes d'IA et en font partie. » 

J'aurais au moins appris quelque chose !