vendredi 11 juillet 2025

IA : le nouveau contrat social (qui ne sera jamais signé)

page IA

L'adoption de l'IA à tous les niveaux se fait de façon désordonnée, chaotique même, sans aucune réflexion, aucune planification. Que ce soient les gouvernements, les entreprises ou les particuliers, tout va trop vite, les progrès technologiques incessants et de plus en plus rapprochés ont des années-lumière d'avance sur la capacité humaine d'assimiler tout cela, avec des conséquences pour le moins sournoises.

Dans mon premier billet d'une longue série sur l'IA, intitulé « La troisième révolution civilisationnelle : l'intelligence artificielle (IA) », je n'ai pas choisi par hasard la notion de révolution civilisationnelle, quand bien même « civilisationnel » est un terme peu utilisé, probablement parce qu'il est censé décrire des phénomènes, des enjeux ou des transformations ayant un impact profond, global et durable sur une civilisation dans son ensemble.

Par essence, une révolution civilisationnelle est rare, mais lorsqu'elle se produit elle génère à la fois une urgence civilisationnelle pour l'humanité dans son ensemble, de même qu'un défi civilisationnel à relever par l'humanité dans son ensemble.

*

1. L'urgence civilisationnelle de l'IA

À ce jour, l'accélération phénoménale à laquelle nous assistons ne s'accompagne malheureusement d'aucune vision collective. L’intégration massive de l’IA dans les secteurs productifs, administratifs et sociaux transforme le tissu économique plus rapidement que notre capacité à en anticiper les effets humains. Or, les cadres actuels — réglementaires, sociaux, politiques — sont obsolètes. Le droit du travail peine à encadrer l’automatisation des tâches, la redistribution des gains de productivité est inexistante, et les citoyens se voient exclus des choix technologiques qui façonnent leur quotidien.

Cette absence de tout projet collectif renforce la défiance, les inégalités et la fracture démocratique, pour autant que l'on puisse croire que la démocratie existe encore...

Lorsque le rythme fulgurant des progrès technologiques et la formidable puissance économique de l'IA dépassent la capacité des sociétés humaines à réfléchir, réguler, absorber, ou même simplement comprendre ce qui se passe, cela crée un "gap d’assimilation" entre ce que la technologie permet et ce que la société peut moralement, culturellement et politiquement supporter, tant au plan collectif qu'individuel.

Or, inutile de nier que l'IA interroge en profondeur ce que nous sommes en reconfigurant tous les fondements de nos sociétés :
  • Le travail : automatisation massive, disparition ou transformation de millions d’emplois.
  • La connaissance : génération de contenus, fiabilité des savoirs, fin de l’expertise traditionnelle.
  • La décision : délégation croissante du jugement humain aux algorithmes (justice, sécurité, santé…).
  • L’identité et les relations humaines : confusion croissante entre ce qui est produit par l’homme et par la machine, société « sans contact », remplacement partiel des interactions humaines par des agents IA.
  • La politique : influence algorithmique sur l’opinion, surveillance, gouvernance par les données.
Il s’agit désormais d’un acteur structurant notre vie en société, personnelle et professionnelle. En partie encore silencieuse, mais massive, la rupture va bien au-delà de la sphère technologique, elle est anthropologique, sociale, politique ! L’IA est un levier de transformation systémique remettant en question les structures qui distinguent l’humanité - le travail, la justice, la liberté, la coopération et la survie dans un monde écologiquement fragile -, de même qu'elle redéfinit "notre contrat social", ou pour le moins ce qu'il en reste. Le tout à une rapidité sans précédent...

*

2. Le défi civilisationnel posé par l'IA

Si l'on veut (pour peu qu'on le puisse encore) transformer cette urgence en opportunité, nombreux sont les défis que l'humanité devra relever pour y répondre. Parmi les mesures idéales :

  • mener une réflexion anthropologique sur ce que signifie être humains dans un monde de machines ;
  • réfléchir à une régulation démocratique, pour concevoir un cadre collectif où l’IA sert l’intérêt général, respecte les droits humains et implique une participation citoyenne dans la définition de ses usages, limites et finalités ;
  • concevoir une redistribution des finalités, où la technologie est au service d'un projet de société humain, et non l’inverse ;
  • ralentir et aménager des pauses pour retrouver du temps commun, du sens partagé, de l’intelligence collective.

a) mener une réflexion anthropologique

L'anthropologie se rapporte à l'étude de l'être humain dans toutes ses dimensions : comportements, sociétés, cultures, croyances, etc. L'IA, qui est censée être conçue par des humains (pour l'instant) et pour des humains, n'est jamais neutre. De fait, une IA est entraînée sur des données humaines (textes, images, vidéos, comportements numériques) qui reflètent nos biais, nos stéréotypes, nos cultures dominantes, etc. Il y a actuellement une forte inquiétude sur des publications polémiques de Grok en matière de racisme, qui pourrait donner lieu à l'ouverture d'une enquête de la Commission européenne... 

Tout cela est lié de très près ! Nvidia vient juste de passer le cap des 4000 milliards de dollars de capitalisation (elle était à 1000 milliards il y a tout juste deux ans), uniquement parce que c'est le géant des puces (oxymore ?) destinées à l'IA qui fait exploser son chiffre d'affaires et ses bénéfices trimestre après trimestre, malgré les restrictions sur les puces chinoises. Très bien, elle arrivera sûrement à dix mille milliards, cent, que sais-je ? Mais pour quoi, et pour qui ? Pour garnir les poches de Jensen Huang ? Mais qu'en sera-t-il des 8 autres milliards d'humains sur la terre ?

Il y a à peine plus d'un mois, DeepL s'associait à Nvidia pour traduire l'ensemble du Web en moins de 20 jours ! Maintenant DeepL traduit en moins d'une seconde les 20 millions de mots que j'ai mis 40 ans à traduire, en allant 1,89 milliard de fois plus vite que moi ! Très bien, mais à quoi sert la suprématie traductionnelle, et à qui ?

Ce matin j'ai reçu un message d'un grand groupe de traduction (LSP), adressé à l'ensemble des collaborateurs, pour nous prévenir qu'ils avaient adopté la post-édition automatique... Or vu qu'ils ne sont pas encore sûrs et certains de la qualité finale, ils nous demandent de devenir des post-éditeurs de leur post-édition automatisée !!! Cette nullité au carré a pourtant un but : atteindre tôt ou tard un produit 100% automatisé, juste pour supprimer 100% des traducteurs et engranger toujours plus d'argent. Ce qu'ils ne comprennent pas, c'est que le jour où ils n'auront plus besoin des traducteurs, les clients n'auront plus besoin d'eux non plus ! 

Donc je répète ma question : à quoi tout cela sert-il, et à qui ? Face à ces exemples par milliers où chacun scie la branche sur laquelle il est assis, comment ne pas comprendre la nécessité de mener une réflexion anthropologique si l'on veut sortir d'une telle absurdité ? 


b) réfléchir à une régulation démocratique

C'est le pendant du paragraphe précédent, qui va même au-delà de l'IA : comment penser et réguler le progrès technologique au XXIe siècle pour mieux l'humaniser ? En sachant que toute régulation doit aussi être le fruit d'un compromis : trouver l'équilibre entre innovation et régulation pour éviter d'étouffer les start-ups ou freiner la recherche. Il n'empêche, l'objectif ne peut pas - plus - être seulement économique.

Il s'agit de concevoir un cadre collectif où l'IA servirait l’intérêt général, dans le respect des droits humains, et avec une véritable participation citoyenne à la définition de ses usages, limites et finalités. Cela permettrait de rééquilibrer le pouvoir technologique, de protéger les citoyens et de repolitiser les choix algorithmiques, aujourd’hui largement délégués à des acteurs privés et techniques.

Pour illustrer ce propos, puisque l’IA affecte des aspects fondamentaux de la vie collective (emploi, santé, justice, information, sécurité, etc.), les décisions sur son développement ne peuvent pas être seulement technocratiques ou dictées par des intérêts commerciaux, il s’agit de garantir la souveraineté collective sur les systèmes qui nous gouvernent de plus en plus directement ou indirectement.

Car la régulation seule ne suffit pas si on ne s’interroge pas aussi sur le "pour quoi faire" de la technologie et "pour qui" (reprise du pour quoi et pour qui du petit a). Sans ce questionnement, comment croire un seul instant que la société cessera d'elle-même de subir les buts qui lui sont imposés (par le marché ou autres décideurs en tous genres) pour reprendre en main ses destinées en cessant de se contenter de poser des limites et en commençant à définir activement ce qu’elle veut faire de ses technologies, pour que celles-ci redeviennent des politiques au service du bien commun.

La régulation démocratique, c'est le contrôle du "comment" : qui décide, comment on encadre les usages, quelles limites on impose, comment on protège les droits, mais sans remettre en cause les finalités implicites de l’IA (efficacité, automatisation, rentabilité, croissance, etc.). Le pour quoi et pour qui consiste à réorienter vers un changement de cap, qui ne soit pas uniquement un frein ou une barrière.

Coïncidence, la Commission européenne vient de publier un cadre volontaire (non obligatoire pour l’instant), visant à guider les entreprises dans la mise en conformité anticipée, à encourager les bonnes pratiques éthiques et techniques, tester les obligations à venir dans un cadre souple, créer une culture commune de la régulation avant l’obligation légale, et donner un avantage aux acteurs qui s’aligneront tôt, en matière de réputation, d'accès au marché ou d’innovation responsable.

La loi sur l'IA est une réglementation contraignante sur l'intelligence artificielle votée par l'UE : entrée en vigueur en 2024, elle s'applique progressivement jusqu’en 2026, date à laquelle elle deviendra pleinement applicable.

Le Wall Street Journal en parle déjà, et OpenAI et Google ont annoncé qu'ils étudieraient le document pour décider si le signer ou non... 

Dans un autre registre, le Pape Léon XIV demande une « gouvernance coordonnée de l'IA » à l'occasion du Sommet AI for Good 2025 , qui se conclut aujourd'hui (Genève, 7-11 juillet 2025), en insistant sur l’importance de développer l’intelligence artificielle avec « responsabilité et discernement ». Nous sommes en plein sujet !


c) concevoir une redistribution des finalités

Cette "reconstruction" consiste essentiellement à :
  • se demander à quoi l’IA devrait vraiment servir (au regard de l’intérêt général, de la justice sociale, de l’écologie, etc.)
  • interroger des dimensions ignorées par la logique de marché (favoriser les débats autour de l'IA, ralentir les flux, cultiver le discernement, préserver l’attention)
  • se donner le droit de dire : « Nous voulons une IA qui serve et desserve … autre chose que la performance. »
  • favoriser dans les médias le pluralisme d’opinion, ralentir la diffusion de l’information, renforcer les analyses critiques, etc. (je sais, je rêve...)
Quelques pistes pour inverser le sens des finalités (des technologies vers l'humain, et non le contraire), en repensant :
  • les finalités du travail dans la société : à présent, les choix techniques orientent trop souvent les choix sociaux, on déploie une technologie parce qu’elle existe, parce qu’elle est rentable ou innovante, sans se demander si elle est vraiment souhaitable, et pour quoi et pour qui
  • la place de la décision humaine, en remettant les besoins sociaux, écologiques et démocratiques au centre des choix techniques : communs technologiques (logiciels libres, infrastructures partagées), soutien public à des innovations ayant un impact social, etc.  
  • mettre la technologie au service de projets humains concrets : définir d’abord un projet de société humain et soutenable, et choisir ou concevoir ensuite les technologies pouvant y contribuer (projets de justice sociale, de sobriété écologique, de renouveau démocratique…)
En clair, ce n’est pas à la société de s’adapter aux technologies, mais aux technologies de répondre aux choix collectifs de société, le progrès n’est plus ce que permet la technologie, mais ce que choisit la société. Pour sortir collectivement du pilotage automatique de l’innovation et reprendre la main sur le monde que nous voulons construire...


d) ralentir et aménager des pauses

J'ai mentionné plus haut mon premier billet de cette longue série sur l'IA (loin d'être terminée), le second s'intitule : « Le temps de la réflexion ». Ne pouvant pas le reporter ici dans son intégralité (je vous conseille cependant de le lire si vous avez deux minutes à perdre), je me contenterai de mentionner la conclusion :

« J'ai commencé ce billet en citant Paul Virilio, je conclurai de même :
Le temps humain n'est pas le temps des machines. Avant, le temps humain, c'était le passé, le présent, le futur. Aujourd'hui, c'est du 24/24, du 7 jours sur 7, c'est l'instantanéité. Ça explique combien il est difficile de vivre, de tout concilier... Il faut se laisser le temps de réfléchir, le temps d'aimer... »

Le temps d'aménager des pauses pour retrouver du temps commun, du sens partagé, de l’intelligence collective !

*

Que de belles paroles, me direz-vous. Rassurez-vous, je ne suis pas dupe, je sais parfaitement qu'elles sont à la limite de l'utopie, mais imaginez un instant Jean-Jacques Rousseau, lorsqu'il écrit « Du Contrat social » et le publie en 1762, alors en rupture et en opposition à l'absolutisme monarchique, à l’inégalité sociale et à la domination des élites.

Vous voyez une différence avec les temps présents ? 

Ou encore, en 1755, dans son Discours sur l’origine et les fondements de l’inégalité parmi les hommes, lorsqu'il critique la société civile comme étant le lieu où les inégalités se sont instituées.

Vous voyez une différence avec les temps présents ? 

Donc si l'on en parle toujours deux siècles et demi plus tard, l'idée de créer un nouveau contrat social tenant compte de la révolution de l'IA n'est certainement pas moins utopique aujourd'hui qu'elle ne l'était au temps de Rousseau pour les raisons qui l'occupaient.  

Et lui qui tentait, déjà, de repenser les fondements légitimes de l'autorité politique, il nous offre encore un socle de réflexion robuste pour repenser le rapport entre individus, société et pouvoir. 

Certes, le contrat social n'a cessé d'évoluer depuis l'époque, mais l’IA, la robotisation, les plateformes numériques et la mondialisation des données altèrent profondément le cadre tacite du contrat social post-industriel :

  • Le travail n’est plus le seul vecteur d’intégration sociale
  • Les décisions qui nous affectent sont prises par des algorithmes opaques, souvent sans débat public
  • La puissance des grands acteurs de l'IA et des multinationales dépasse de plus en plus celle des États
  • Les règles fiscales, éthiques et juridiques sont inadaptées à la vitesse de l’innovation

J'ai demandé à ChatGPT quels devraient être les grands piliers que le législateur devrait formaliser. Voici la réponse :

Pilier

Exigence démocratique

Souveraineté numérique

Droit collectif à la transparence, au contrôle des algorithmes, à la maîtrise des infrastructures critiques

Équité sociale

Redistribution équitable des gains de productivité liés à l’IA (revenu de transition, taxation de l’automatisation, protection sociale élargie)

Participation active

Droit de chaque citoyen à participer à la régulation des technologies et à l’élaboration des normes

Reconnaissance du travail non marchand

Intégrer la valeur sociale des activités de care, de transmission, de bénévolat, etc.

Accès universel à la formation et à la reconversion

Reconnaître l’éducation et la montée en compétences comme un droit fondamental face aux transformations IA

Je n'aurais pas trouvé mieux :-)

En conclusion, le moment est historique. Il ne s’agit pas de "ralentir" l"innovation, mais d'opérer un choix collectif pour reprendre la maîtrise politique de ce que nous voulons en faire. Repenser le contrat social à l'ère de l’IA, c'est choisir ensemble ce que nous jugeons utile, juste, souhaitable.


*

Avant de terminer cette réflexion, je voudrais laisser une idée à votre attention. J'ai demandé à 7 IA (ChatGPT, Gemini, Grok, Claude, Mistral, DeepSeek et Perplexity) de me rédiger une Charte internationale de l'IA. J'en ferai peut être un billet un jour, si ça me dit. Pour l'instant je me suis contenté de faire une analyse statistique des 7 textes proposés, et d'en extraire les termes significatifs les plus fréquents. 

Après avoir éliminé les mots "article", "charte", "internationale", "intelligence", "artificielle" et "IA" pour des raisons évidentes de surreprésentation, je vous propose le nuage sémantique pondéré des 70 termes les plus cités, créé par le regretté Wordle :


J'ai été très surpris de constater que le substantif le plus fréquent était Systèmes (48 fois au pluriel et 8 fois au singulier), et plus précisément systèmes d'IA

Le règlement IA les définit comme suit : « un système automatisé conçu pour fonctionner à différents niveaux d'autonomie, qui peut faire preuve d'une capacité d'adaptation après son déploiement et qui, pour des objectifs explicites ou implicites, déduit, à partir des données d'entrée qu'il reçoit, la manière de générer des résultats tels que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer les environnements physiques ou virtuels » (article 3).

Ainsi, comme mentionné au considérant 97 du RIA : « bien que les modèles d'IA soient des composants essentiels des systèmes d'IA, ils ne constituent pas des systèmes d'IA à eux seuls. Les modèles d'IA nécessitent l'ajout d'autres composants, comme par exemple une interface utilisateur, pour devenir des systèmes d'IA. Les modèles d'IA sont généralement intégrés dans les systèmes d'IA et en font partie. » 

J'aurais au moins appris quelque chose !




Aucun commentaire: