samedi 17 mai 2025

Intelligence artificielle. Post-Scriptum

Ce billet est le P.S. aux 4 blocs sur l'intelligence artificielle, durant la rédaction desquels je n'ai cessé un seul instant de m'interroger sur ce qu'est véritablement l'IA et sur comment elle fonctionne. Je vais tenter de fournir ici des réponses simples à ces questions compliquées.

En général, quand on ne connaît pas le sens d'un terme, on ouvre un dictionnaire. Au hasard, le Robert :

Intelligence artificielle (IA)

ensemble des théories et des techniques développant des programmes informatiques complexes capables de simuler certains traits de l'intelligence humaine (raisonnement, apprentissage…).

Intelligence artificielle générative, capable, à partir de grands volumes de données (textes, sons, images…), de dégager des modèles et d'en générer de nouveaux, ou d'améliorer les modèles existants. 

En clair, l'IA développe des systèmes intelligents capables de fonctionner en mode autonome et d'interagir avec leur environnement, en se basant sur trois piliers conceptuels : penser (la pensée, l'analyse et le raisonnement), savoir (le savoir, l'apprentissage, la mémorisation et la gestion des données) et agir (l'action, l'interaction, l'exécution, l'application concrète). Ces trois capacités essentielles forment une boucle : le savoir alimente la pensée, la pensée guide l’action, tandis que les retours d’expérience (rétroaction) vont enrichir à leur tour le savoir.


Chacune de ces capacités, qui simule diverses facettes de l’intelligence et de la cognition humaines et s'en inspire, se traduit par des mécanismes algorithmiques, des modèles mathématiques et autres techniques spécifiques.

Dans mon deuxième bloc sur l'IA, j'ai inséré un diagramme simple présentant le fonctionnement d'une intelligence artificielle en quatre étapes, qui se superposent aux 3 piliers conceptuels et à la boucle de rétroaction :
  1. analyse de grandes quantités de données saisies (penser)
  2. détection des constantes au moyen d'algorithmes (savoir)
  3. exécution des tâches (agir)
  4. apprentissage et amélioration des performances (rétroagir)
*

1. Analyse de grandes quantités de données saisies (penser)

L'IA n'a aucune capacité de "penser" par elle-même si elle ne se fonde en amont sur des données pour l'alimenter et la former. Lorsqu'on parle d'intelligence pour une machine, un système ou autre, il faut avant tout évoquer une aptitude à comprendre, toute « machine intelligente » dépendant de facto d'une programmation pointue, permettant d’effectuer des tâches préformatées... Plus la programmation est élaborée, plus la machine résulte « intelligente »...

Les données sont le carburant de l'IA, qui s'en nourrit voracement, vu les quantités énormes dont elle a constamment besoin pour apprendre, en les traitant et les organisant... Elles sont essentielles pour entraîner les modèles, sans données l'IA ne "pense" pas ! En revanche, plus elle en a, plus elle est capable de "penser". Les volumes nécessaires peuvent aller de 1 Go à 100 Go pour des modèles intermédiaires, voire de 100 To à plusieurs Po (à la louche, 1 Pétaoctet = 1 milliard de livres...) pour les grands modèles de langage (LLM / Large Language Model).

En poursuivant l'analogie avec la pensée, nous pourrions dire que les LLM sont le "cerveau" que l'IA se construit en partant des données, notamment grâce au développement de réseaux de neurones artificiels, souvent basés sur des modèles de type Transformeur (dans ChatGPT, loin de la phonétique française, GPT signifie Generative Pre-trained Transformer), une architecture de réseau neuronal introduite en 2017 par Vaswani et al. (Google !) dans l'article "Attention is All You Need".

Dans un premier temps, la collecte des données consiste à rassembler différentes informations (textes, images, sons, etc., bien que ce billet se limite au seul volet textuel). Et qui dit texte (et mots écrits) dit traitement du langage naturel (NLP) multilingue, pour permettre à l’IA de comprendre et d'interagir ensuite, en combinant, entre autres, analyse grammaticale, apprentissage profond (deep learning) sur de vastes corpus, reconnaissance du contexte et des intentions. Toutefois, l'ensemble de ces données provenant de sources diverses, elles sont toujours multi-formats, non structurées, d'où la nécessité de les "tokéniser" en vue de standardiser un corpus.

En sécurité informatique, la tokénisation est le procédé permettant de remplacer une donnée critique par un élément équivalent (un token, ou jeton) qui n’aura aucune valeur intrinsèque ou signification exploitable une fois sortie du système, d'où la protection des données (sensibles) d'une entreprise. En intelligence artificielle, tokéniser consiste à décomposer le texte en unités/entités plus petites (tokens, ou symboles) : selon la méthode utilisée, il peut s'agir par exemple de mots, de sous-mots ou de caractères. Prenez le mot "anticonstitutionnellement" :
  1. tokénisé par mot : "anticonstitutionnellement" --> 1 mot = 1 token
  2. tokénisé par sous-mot : "anti"-"constitutionnellement" --> 2 sous-mots = 2 tokens
  3. tokénisé par caractères : "a" "n" "t" "i" "c" "o" "n" "s" "t" "i" "t" "u" "t" "i" "o" "n" "n" "e" "l" "l" "e" "m" "e" "n" "t" --> 25 caractères = 25 tokens
Chaque token est encodé ensuite (en une valeur numérique, un identifiant unique) pour que le modèle d'IA puisse le traiter. La tokénisation par caractères est plus flexible, plus simple à mettre en œuvre (mais plus gourmande en ressources, et donc plus coûteuse), sans règles complexes, elle permet de capturer la structure des mots à un niveau plus granulaire et de gérer tous les langages, puisque tous utilisent des caractères (idéal pour les modèles multilingues, les langues peu représentées, les mots inconnus).

Par contre il peut y avoir une perte de structure sémantique, elle peut être moins efficace pour saisir le sens global. Une option pour l'utilisateur, selon ses besoins spécifiques, pourrait donc être de retenir une approche hybride davantage équilibrée, combinant caractères et mots (ou sous-mots). Quoi qu'il en soit, la tokénisation est un processus clé permettant de convertir le langage humain en un format exploitable par les machines. 

Quant à standardiser le corpus, cela signifie transformer les données brutes d'entrée d'un modèle d'IA pour qu'elles aient des caractéristiques similaires et cohérentes. C'est une étape cruciale du prétraitement des données, avant d'entraîner le modèle. Entraîner le modèle revient à analyser les données pour y identifier des motifs et des relations.

Les motifs (patterns, en anglais) sont des "régularités", des caractéristiques récurrentes dans les données. En phase d'apprentissage, l’IA extrait ces motifs en s’entraînant sur de nombreux exemples pour pouvoir ensuite classer ou prédire correctement de nouveaux cas, ce qu'on appelle l'inférence. La compréhension des relations contextuelles, entre mots d'une séquence, y compris éloignés, entre phrases, sémantiques ou syntaxiques complexes est cruciale pour une IA, notamment pour mieux comprendre comment répondre aux questions qui lui sont posées.

C'est la capacité de raisonner de manière multimodale (en intégrant des informations provenant de différentes modalités sensorielles, textes, images, sons, etc.), causale et flexible d'une IA, qui ne peut pas aller au-delà des corrélations apprises à travers les données. Tout au moins jusqu'à présent. Car avec l'arrivée en force des agents ou du protocole A2A (Agent to Agent) de Google et du protocole MCP d'Anthropic, les intelligences artificielles vont s'autonomiser toujours davantage, en communiquant et en collaborant de façon fluide directement entre agents, sans plus passer par aucun dialogue avec des opérateurs "humains". Ce qui soulève quelques problèmes éthiques, hors du périmètre de ce billet.

Le raisonnement conduit à la prise de décisions, logiques et non hallucinées espérons-le, à la résolution des problèmes, aux inférences (prédictions sur de nouvelles données en utilisant les connaissances acquises lors de l'entraînement du modèle), à la planification d'actions futures, etc. Tout cela grâce aux algorithmes...

*

2. Détection des constantes au moyen d'algorithmes (savoir)

Toute IA se fonde sur des algorithmes et des modèles mathématiques sophistiqués. La différence entre les deux est que le modèle est le résultat ou la structure mathématique qui encapsule la connaissance apprise à partir des données, tandis que l’algorithme est le processus qui permet d’obtenir ce modèle et de l’utiliser. Selon la thèse de Church Turing, s'il existe un algorithme pour résoudre un problème, un ordinateur peut être programmé pour implémenter cet algorithme :
  1. l'algorithme consiste en un ensemble fini d'instructions simples et précises qui sont décrites avec un nombre limité de symboles ;
  2. l'algorithme doit toujours produire le résultat en un nombre fini d'étapes ;
  3. l'algorithme peut en principe être suivi par un humain avec seulement du papier et un crayon ;
  4. l'exécution de l'algorithme ne requiert pas d'intelligence de l'humain sauf celle qui est nécessaire pour comprendre et exécuter les instructions.
Vous pouvez avoir jusqu'à une cinquantaine d'algorithmes différents pour construire et entraîner un grand modèle de langage, selon la complexité du modèle et de l’application. Ces algorithmes incluent le prétraitement (tokenisation, normalisation), l’architecture (Transformers), l’optimisation (Adam), la régularisation (dropout), l’évaluation (validation croisée), et le post-traitement (quantification, fine-tuning). Ici mon but n'est pas de rentrer dans les détails techniques (nous sommes dans de la très haute ingénierie), mais juste de donner une idée de la complexité du processus.

Et lorsque le modèle d'IA compte des centaines de milliards de paramètres et plusieurs milliards de mots (l'entraînement de GPT-3 a porté sur 175 milliards de paramètres, et GPT-4 entraîne son modèle sur des milliards de textes - sans divulguer exactement la quantité ni combien de paramètres - pour prédire le mot suivant...), qu'ils soient généraux ou spécialisés, les corpus leur servant d'entraînement sont proportionnés :
  • C4 (Colossal Clean Crawled Corpus), de Google, un corpus massif basé sur des données extraites du Web, nettoyées, représente environ 750 Go de texte brut, soit plusieurs centaines de milliards de mots, y compris en versions multilingues (mC4).
  • arXiv a des dizaines de milliards de mots, environ 1,5 million d’articles scientifiques en libre accès (principalement informatique, physique, mathématiques)
  • Les datasets (ou jeux de données) de Twitter (désormais X) comptent des milliards de messages
  • CC-100 : un corpus massif issu de Common Crawl, couvrant une centaine de langues avec 294,58 milliards de tokens, idéal pour les tâches multilingues.
  • OPUS (Open Parallel Corpus), qui collecte des corpus parallèles pour la traduction (incluant des sous-titres, des documents officiels, des textes littéraires) rassemble des milliards de paires de phrases, alignées, dans plus de 100 langues.
Quant aux milliards de paramètres au cœur des performances des IA modernes, avec des perspectives d’optimisation croissantes et rapides, il s'agit pour le plus des poids numériques (et des biais) en virgule flottante, stockés dans des matrices au sein des couches d’un réseau neuronal (comme un Transformer). Ils encodent les connaissances apprises à partir des données massives et sont essentiels pour l'apprentissage du réseau et la modélisation des fonctions complexes.

À titre d'anecdote (!), l'IA chinoise Wu Dao 2.0, la plus puissante à ce jour, tourne avec 1750 milliards de paramètres... Ceci n'est qu'un bref exemple de fonctionnement et d'une partie des ressources nécessaires, qui suffit cependant à donner un aperçu de l'énormité de la chose. Qui doit forcément reposer sur des puissances de calcul à la hauteur !

Dans mon précédent billet sur « La quatrième révolution civilisationnelle : l'informatique quantique », j'indiquais que l'informatique "classique" (très haute performance, quand même) était déjà en mesure d'effectuer 125 millions de milliards d'opérations en virgule flottante par seconde (125 pétaflops) de performances maximales grâce à 4000 milliards de transistors et 900 000 cœurs de calcul optimisés pour l'IA :
Le système CS-3 est conçu pour entraîner des modèles de langage 10 fois plus grands que GPT-4 et Gemini, pour ne citer qu'eux. Il s'appuie pour cela sur un important système de mémoire pouvant atteindre 1,2 pétaoctet. Par ailleurs, 24 000 milliards de modèles de paramètres peuvent être stockés dans un seul espace mémoire logique sans partitionnement ni remaniement, assure Cerebras. (...) Les configurations compactes à quatre systèmes permettent d'affiner des modèles de type 70B en une journée, tandis qu'à grande échelle, en utilisant 2048 systèmes, Llama 70B peut, par exemple, être entraîné à partir de rien en une seule journée.
(Source : L'Usine digitale). Où 70B signifie 70 milliards de paramètres... 

Évidemment, plus les capacités des processeurs sont élevées, plus ces milliards de paramètres et d'opérations ne prennent que quelques secondes pour être traités ! Les processeurs matures actuellement utilisés, tels que GPU (jusqu’à 30 téraFLOPS pour un NVIDIA A100) ou TPU (180 téraFLOPS par module TPU), seront largement inférieurs aux nouveaux processeurs photoniques lorsque ceux-ci auront atteint leur maturité, ce qui n'est pas encore le cas, mais les résultats annoncés sont ... (je vous laisse remplir avec le qualificatif qui convient !) :
Le processeur photonique peut fonctionner (avec des erreurs intermittentes) à une fréquence d’horloge de 2 GHz, soit 262 000 milliards d’opérations adaptatives en virgule flottante par blocs de 16 bits – ABFP16 – par seconde. 
Passage extrait de l'article Universal photonic artificial intelligence acceleration, approuvé par la revue Nature le 3 mars 2025. Pour UN (1) processeur ! En attendant la mise en service du supercalculateur exaflopique Jules Verne (on parle de 1018, soit un milliard de milliards d'opérations par seconde...), qui devrait être opérationnel dès la fin de l'année auprès du Très Grand Centre de Calcul (TGCC) du CEA et opéré par le GENCI

Et ceci sans mettre l'informatique quantique dans l'équation : la Chine dévoile un ordinateur quantique un million de milliards de fois plus rapide que les superordinateurs existants. Laissons tomber, c'est sans fin ! Non, nous n'avons résolument aucune idée de ce que sera réellement la convergence SUP²...

*

3. Exécution des tâches (agir)

Juste pour commencer par un exemple d'application concrète en IA : le développement de nouveaux médicaments grâce à la "simulation moléculaire". Il s'agit de modéliser la manière dont les particules interagissent à l'intérieur d'une molécule pour tenter de créer une configuration capable de combattre une maladie donnée :
Ces interactions sont incroyablement complexes et peuvent prendre de nombreuses formes différentes, ce qui signifie qu'une prédiction précise du comportement d'une molécule sur la base de sa structure nécessite d'énormes quantités de calculs.
Il est impossible de le faire manuellement, et l'ampleur du problème est également trop importante pour les ordinateurs classiques actuels. En fait, on estime que la modélisation d'une molécule de seulement 70 atomes prendrait jusqu'à 13 milliards d'années à un ordinateur classique. (...)
Les ordinateurs quantiques ont toutefois le potentiel de résoudre un jour le problème de la simulation moléculaire en quelques minutes.
Avec l'informatique classique, nous avons déjà une idée des délais de développement d'un nouveau médicament (entre 12 et 15 ans), et de l'ambition des grands laboratoires de réduire cette période de moitié grâce à l'IA. Donc, dans l'attente de la suprématie quantique, et bien qu'en partie le quantique soit déjà opérationnel, contentons-nous de ce qui existe actuellement, et ce n'est pas peu ! 😀

L'IA agentique est déjà réalité, et dans la capacité d'interaction de l'IA avec son environnement et d'exécuter des actions physiques ou numériques en vue d'atteindre divers objectifs, on pense souvent au contrôle de la robotique, aux systèmes et véhicules autonomes (voitures, drones, taxis...), ou encore à l'automatisation via des agents logiciels. C'est ce dernier volet que je souhaite aborder ici.

Où l'on entend par automatisation les programmes et entités logicielles, autonomes (à savoir prenant des décisions sans intervention) ou semi-autonomes (qui nécessitent la supervision d'un opérateur), souvent basés sur des LLM, qui exécutent des tâches complexes (traduction multilingue, analyse scientifique, gestion industrielle) avec un minimum d’intervention humaine :
  • La prise de décision permet de choisir l'action optimale en fonction de l'objectif fixé
  • L'interaction physique contrôle les dispositifs pour effectuer des tâches en réel
  • L'interaction numérique gère les interfaces utilisateur, les robots conversationnels ou les systèmes automatisés
  • L'adaptabilité permet d'ajuster les actions en temps réel selon les changements dans l’environnement 
La capacité d'action d'une IA implique donc une prise de décisions basées sur sa "pensée" et son "savoir", chaque action lui permettant en retour d'obtenir davantage d'informations sur l'environnement, pour mieux réagir aux nouvelles situations et adapter ses actions selon les changements ou les objectifs, y compris l'apprentissage de nouvelles tâches et l'ajustement en temps réel de ses stratégies. Par conséquent les résultats génèrent au fur et à mesure de nouvelles connaissances, dans une boucle de rétroactions et d'adaptation.

*

4. Apprentissage et amélioration des performances (rétroagir)

Une IA robuste et polyvalente est capable d'équilibrer ces trois dimensions, interconnectées : penser, savoir, agir. Dans ce cadre, l’apprentissage par renforcement (Reinforcement learning) permet de développer des algorithmes plus efficaces pour explorer et exploiter les différents environnements, ou de simuler des environnements riches pour entraîner les IA à la gestion de scénarios complexes. 

À ce type d'apprentissage s'ajoutent deux sortes de rétroactions : le retour d'informations par l'humain (RLHF / Reinforcement Learning from Human Feedback), et le retour d'informations par (une ou plusieurs) IA (RLAIF / Reinforcement Learning from AI Feedback) :

Les avantages du RLHF sont les suivants
  • Alignement du modèle amélioré sur les préférences humaines : avantage fondamental, qui permet aux LLM de comprendre et de générer des réponses non seulement grammaticalement correctes mais aussi utiles, pertinentes, inoffensives et conformes aux valeurs humaines.
  • Meilleures performances sur les tâches complexes et nuancées : le feedback humain aide le modèle à gérer des tâches qui impliquent des préférences, des jugements ou des valeurs subtiles, chose essentielle pour les applications conversationnelles ou la création de contenu.
  • Réduction des comportements indésirables : crucial pour minimiser la génération de contenus biaisés, toxiques, dangereux, factuellement incorrects (hallucinations) ou répétitifs. Les évaluateurs humains peuvent pénaliser les réponses non vérifiables.
  • Expérience utilisateur améliorée : les modèles affinés grâce au RLHF offrent des interactions plus naturelles, intuitives et personnalisées, notamment via les préférences utilisateurs.
  • Adaptabilité et amélioration continue : grâce au processus itératif du RLHF, les modèles s'adaptent et s'améliorent continuellement en fonction des interactions des utilisateurs et des nouveaux retours.
  • Efficacité accrue pour les paramètres complexes : le feedback humain est plus efficace que des règles ou des métriques techniques pour des paramètres d'entraînement subjectifs (comme l'ambiance d'un texte ou la créativité d'une histoire).
Les inconvénients
  • Coût et intensité en ressources humaines : collecter les données de préférences humaines est extrêmement coûteux, chronophage et laborieux, en exigeant une grande quantité de jugements humains de haute qualité. Recruter, former et gérer les évaluateurs est à la fois un défi logistique et humain, et un surcoût financier.
  • Biais du feedback humain : les jugements humains sont intrinsèquement subjectifs et peuvent être influencés par les préférences, les valeurs, les expériences, voire les biais culturels des évaluateurs. Sans oublier les incohérences, ou parfois la malveillance des évaluateurs, qui dégradent la qualité du feedback. Il est pour le moins nécessaire d'avoir un pool d'évaluateurs diversifié.
  • Difficultés de généraliser à de nouveaux contextes : il se peut que le modèle rencontre des contextes ou des prompts (invites) inattendus, pour lesquels il n'a eu aucun feedback direct. Dans ces cas-là, la robustesse du modèle peut montrer ses limites et conduire à des "hallucinations", des comportements indésirables.
  • Complexité et instabilité de l'entraînement : le processus de conception d'une fonction de récompense* efficace et stable peut s'avérer opaque et insuffisant (imaginez le cas d'un évaluateur humain répondant systématiquement "Je ne sais pas" pour éviter tout risque de mauvaise note). Cela peut parfois rendre le comportement du modèle difficile à comprendre.
  • Risques de sur-alignement et manque de créativité : si le modèle est trop fortement aligné sur les préférences moyennes des évaluateurs, il peut devenir trop "prudent" ou "générique", et risque de perdre une partie de sa créativité, de sa diversité ou de sa capacité à explorer des réponses nouvelles et inattendues.
  • Contournement des mesures de sécurité (jailbreaking) : le RLHF vise à rendre les modèles plus sûrs, entraînés pour ne pas générer de contenu nocif en conditions normales, mais des prompts ingénieux pourraient le forcer à le faire, en révélant un alignement superficiel.
* Je voudrais insister ici sur le mécanisme de la "récompense" (reward), fondamental dans l'évaluation d'une IA. En réalité, la récompense n'est autre qu'un signal numérique indiquant à un modèle d'IA si son action ou sa réponse est "bonne" ou "mauvaise" par rapport à l'objectif fixé. L'attribution des récompenses par un humain se déroule comme suit : l'évaluateur note des réponses d'IA de 1 à 5, par exemple. Un modèle de récompense (reward model) est entraîné pour prédire ces notes, et l'IA optimise ses réponses pour maximiser la récompense prédite. Exemple : ChatGPT préfère des réponses utiles et polies car son modèle de récompense a appris que les humains favorisent cette manière de répondre.

Donc, de fait, le RLHF reste la méthode la plus efficace pour aligner les IA complexes sur des critères subjectifs, mais son succès dépend :
  • de la qualité des annotateurs (diversité, expertise),
  • de la robustesse du modèle de récompense,
  • d'éventuels compléments techniques (combinaison de plusieurs modèles de récompense pour équilibrer les biais, par exemple).
Pour autant, les défis liés aux coûts, à la qualité et aux biais du feedback humain, poussent à la recherche de solutions alternatives, comme le RLAIF, dans la perspective de réduire à terme la dépendance aux humains (!).

- - -

Les avantages du RLAIF sont les suivants
  • Scalabilité et rapport coût-efficacité : avantage le plus significatif, compte tenu des coûts et de la lenteur relative du déploiement à grande échelle du feedback humain. Les évaluateurs IA peuvent générer des retours d'informations beaucoup plus rapidement, à un coût significativement moindre, et permettent un entraînement sur d'immenses volumes de données. La mise à l'échelle du RLAIF permet de générer des volumes massifs de données de feedback, chose essentielle pour entraîner des modèles toujours plus grands et complexes (là où le feedback humain serait vite un goulot d'étranglement).
  • Réduction des biais humains et consistance du feedback : lorsque les principes de jugement d'une IA sont définis clairement et sans biais, cela permet de réduire les biais humains dans le processus d'alignement. S'il est bien conçu, un évaluateur IA peut appliquer des règles de jugement plus cohérentes et objectives que des humains, dont les préférences sont souvent changeantes, et réduire ainsi la variabilité du feedback.
  • Vitesse d'itération : accélération considérable du feedback, ce qui permet des cycles d'itération et d'amélioration des modèles beaucoup plus rapides, un facteur d'une importance cruciale pour un développement accéléré des LLM.
  • Exploration de comportements et performances accrues : les évaluateurs IA peuvent être programmés pour évaluer des comportements très spécifiques ou rares, potentiellement difficiles à définir pour des humains. 
  • Qualité des réponses et de l'éthique du modèle : certains résultats suggèrent que les modèles RLAIF sont moins susceptibles de fournir des réponses évasives dans le cas de requêtes sensibles, tout en restant inoffensifs. De même, un évaluateur IA peut être programmé pour respecter des règles éthiques prédéfinies, en garantissant ainsi que le modèle reste aligné sur des normes éthiques bien précises.
  • Flexibilité et adaptabilité : les évaluateurs IA peuvent être rapidement mis à jour ou reprogrammés pour s'adapter à de nouveaux critères d'évaluation ou à de nouvelles exigences de performance. Par ailleurs, les modèles entraînés par RLAIF peuvent atteindre des performances comparables, voire supérieures, à ceux entraînés par RLHF sur certaines tâches, notamment en matière de concision, de factualité et d'absence de toxicité.
Les inconvénients
  • IA vs. humain, une question de préférence : l'évaluateur IA peut finir par aligner le modèle sur ses propres "préférences d'IA", plutôt que sur les préférences humaines réelles. S'il contient des biais ou des lacunes, cela sera propagé et amplifié dans le modèle final. Défi majeur : l'évaluateur IA peut hériter ou développer ses propres biais, ce qui l'éloignera potentiellement des véritables préférences humaines ou introduira de nouvelles formes de biais.
  • Manque de nuance humaine et détérioration de certains aspects : certaines nuances du comportement humain sont difficiles à incorporer dans des principes ou des règles pour un évaluateur IA. Les évaluateurs IA peuvent avoir du mal à saisir les subtilités, l'humour, le sarcasme, l'empathie ou la créativité, autant de facteurs essentiels pour une interaction véritablement "humaine". Ils peuvent également optimiser des métriques sans en saisir les intentions profondes sous-jacentes. Sur certains aspects, l'inoffensivité des réponses peut parfois en diminuer légèrement l'utilité ou la justesse par rapport au RLHF.
  • Dépendance à la qualité de l'évaluateur IA : la performance du modèle final dépend fortement de la capacité de l'IA juge de comprendre et d'appliquer correctement les principes de jugement définis. Si l'évaluateur IA n'est pas lui-même suffisamment performant ou bien aligné, le feedback généré sera de mauvaise qualité, d'où une performance dégradée du modèle final, ce qui peut conduire à un cercle vicieux.
  • Manque d'explicabilité des décisions de l'IA juge : comprendre pourquoi un évaluateur IA a pris une certaine décision ou attribué un certain score peut être opaque, ce qui rend le débogage et l'amélioration du processus plus difficiles.
  • Risque de reward hacking* de l'évaluateur IA : de même qu'avec un feedback humain, le modèle entraîné peut apprendre à contourner l'IA juge, en trouvant des façons d'obtenir des scores élevés sans pour autant fournir des réponses optimales d'un point de vue humain.
  • Défis de mise en œuvre technique : implémenter un système RLAIF efficace peut s'avérer complexe du fait de la nécessité d'interagir entre deux modèles (le modèle à entraîner et l'évaluateur IA), et de formuler des principes de jugement sans équivoque. Si le modèle apprenant et le modèle juge sont trop similaires (cas de deux LLM), cela peut créer des boucles de renforcement des erreurs.
* La encore, il s'agit de récompense, et plus explicitement de "fraude à la récompense" (ou d'optimisation abusive de la récompense) : phénomène indésirable lorsqu'un agent (un modèle d'IA, dans ce cas) apprend à maximiser la fonction de récompense sans pour autant atteindre l'objectif sous-jacent souhaité par les développeurs. L'IA, qui trouve là une faille ou une faiblesse dans la façon dont la récompense est définie, l'exploite pour obtenir un score plus élevé, mais de manière non intentionnelle, voire préjudiciable.

Bien que le RLAIF soit une avancée majeure pour "démocratiser" l’alignement des IA, il ne remplace pas totalement le RLHF mais doit être privilégié pour des tâches objectives et scalables (ex. : classification, génération de code). Pour des problématiques plus subtiles (l'éthique, les interactions sociales), il y a tout intérêt à l'associer au RLHF afin d'obtenir des résultats mieux équilibrés. Sa réussite dépendra de l’amélioration des modèles juges (évaluateurs IA) et de la gestion des biais hérités.

*
Conclusion

Ce billet n'est qu'un saupoudrage, très très superficiel, de ce qu'est une IA et de la manière dont elle fonctionne. Dans la réalité, c'est de la très haute ingénierie, tout est très compliqué, souvent difficile à appréhender, donc traduire ça en mots simples était un défi. J'espère l'avoir relevé, en tout cas c'était passionnant à écrire, je souhaite que ça le soit autant pour vous à le lire. Je reste ouvert à toute critique et suggestion.


samedi 10 mai 2025

SUP² = SUPerintelligence artificielle + SUPrématie quantique

La troisième révolution civilisationnelle : l'intelligence artificielle (IA)

La quatrième révolution civilisationnelle : l'informatique quantique (IQ)

*

J'ai terminé mon dernier billet sur la conclusion suivante :

Il est clair que, tôt ou tard, la partie logicielle (l'IA, le cerveau) et la partie matérielle (l'IQ, le corps) fusionneront, avec une puissance telle que l'humanité n'a jamais rien connu de semblable depuis le Big Bang ! Le problème n'est plus de savoir si la fusion Superintelligence artificielle / Suprématie quantique aura lieu, mais quand ? Cela étant, une question demeure : pour en faire quoi ?

Pour améliorer les conditions de vie de l'humanité et de la planète, ou juste pour assurer toujours davantage l'emprise stricte des quelques acteurs qui détiendront cet incommensurable pouvoir SUP² sur la multitude de celles et ceux qui en dépendront ?

Je ne répondrai certes pas précisément dans ce billet à la question quand ?, je n'ai pas la boule de cristal, mais les bouleversements civilisationnels dont cette nouvelle réalité est porteuse m'interrogent.

Déjà il y a plus de 10 ans, quelqu'un opposait à la super-intelligence le principe de super-précaution, en avertissant : « L'intelligence artificielle est potentiellement plus dangereuse que le nucléaire... ». Un certain Elon Musk

Selon IBM, la superintelligence artificielle (ASI) est un système logiciel (...) dont la portée intellectuelle dépasse l’intelligence humaine, et qui possède des fonctions cognitives de pointe et des compétences de réflexion extrêmement développées, plus avancées que celles de n’importe quel être humain

Au final, on parle donc d'un système capable de dépasser les capacités de l'ensemble des humains dans tous les domaines de la connaissance, raisonnement, créativité, résolution de problèmes, etc.


Naturellement, cela ne va pas sans risques :
  • Perte de contrôle
  • Conséquences imprévues
  • Préjugés et discrimination
  • Impacts sociétaux et économiques
  • Dépendance à l’IA

Pour ne citer que les plus évidents. Mais de fait, nul ne sait où une telle (r)évolution pourra(it) nous conduire... 

Pour l'heure, Pasqal nous indique que « l'efficacité de l'IA est souvent limitée par la puissance de traitement des ordinateurs classiques, en particulier lorsqu'il s'agit de grands ensembles de données ou de modèles complexes. C'est là que la synergie entre l'informatique quantique et l'IA devient la plus évidente. »

Les chinois, qui ont été rapidement capables de concurrencer l'existant en développant à moindre coût une application d'intelligence artificielle hautement performante, ont déjà fait les premiers pas dans ce sens il y a un mois, en affinant un modèle d'IA à un milliard de paramètres sur leur ordinateur quantique "Origin Wukong", ce qui prouve, s'il en était besoin, que la synergie annoncée par Pasqal est d'ores et déjà bien à l'œuvre, nous ne sommes plus dans un avenir plus ou moins proche, mais dans le présent : hic et nunc !

Or IBM a déjà introduit l'utilité quantique, ainsi définie par la firme :

Pour la première fois dans l'histoire, les ordinateurs quantiques démontrent leur capacité à résoudre des problèmes à une échelle dépassant la simulation classique par force brute, où les seules alternatives sont des méthodes d'approximation classiques soigneusement élaborées et spécifiques à un problème. Ceux qui apprendront à exploiter ces capacités aujourd'hui pourraient être parmi les premiers à bénéficier de l'avantage quantique.

Où, selon moi, l'avantage quantique est l'état entre l'utilité quantique et la suprématie quantique. Je dis "selon moi" car, comme souvent lorsqu'il s'agit de nouveaux concepts, ni leur sens ni leur périmètre ne sont clairement définis. Le terme même de "suprématie quantique" ne fait pas l'unanimité, et d'aucuns lui préfèrent "avantage quantique", en plaçant celui-ci devant celle-là car ils arguent que l'"avantage" se situe avant tout sur un plan pratique, là où la "suprématie" reste plus théorique. 

 Pour ce qui me concerne, dans une échelle de significations, "avantage" se place loin derrière "suprématie", dont il n'arrive qu'au seizième rang de ses synonymes, après supériorité, prééminence, domination, maîtrise, prépondérance, souveraineté, royauté, prédominance, primauté, hégémonie, sceptre, omnipotence, grandeur, ascendant, aristocratie...


Par conséquent, mettre l'avantage devant la suprématie est illogique, un non-sens pur et simple. L’expression « suprématie quantique », créée en 2012 par John Preskill, conseiller du CIFAR, définit « le point où les ordinateurs quantiques peuvent accomplir des tâches qu’aucun ordinateur classique ne peut accomplir, peu importe si ces tâches sont utiles ».

C'est pour cela qu'IBM, en 2019, lorsque Google a revendiqué avoir atteint la suprématie quantique, a rejeté la prétention de Googleun supercalculateur de pointe nécessiterait environ 10 000 ans pour effectuer une tâche équivalente »), en soutenant qu'une simulation idéale de la même tâche pourrait être réalisée sur un système classique en 2,5 jours et avec une fidélité bien supérieure. Et donc, le seuil proposé par John Preskill en 2012 n’a pas été atteint :
Because the original meaning of the term “quantum supremacy,” as proposed by John Preskill in 2012, was to describe the point where quantum computers can do things that classical computers can’t, this threshold has not been met.
Selon le document « Characterizing quantum supremacy in near-term devices », « la suprématie quantique est atteinte quand une tâche informatique formelle est réalisée par un ordinateur quantique alors qu’elle ne peut l’être par aucun algorithme connu sur un ordinateur classique dans un temps humainement raisonnable », une définition plus précise et plus universellement acceptée :
Quantum supremacy is achieved when a formal computational task is performed with an existing quantum device which cannot be performed using any known algorithm running on an existing classical supercomputer in a reasonable amount of time.
10 000 ans, c'est pas raisonnable, 2,5 jours oui !

Du reste, IBM établit une différence claire entre utilité et avantage quantique : « Fondamentalement, l'utilité est une première étape clé vers la démonstration de ce qu'est l'avantage » (Abhinav Kandala).


De mon avis de novice, la suprématie quantique arrivera plutôt rapidement que tardivement, disons d'ici dix ou quinze ans. Dans son rapport intitulé « Potentiel quantique », le Canada nous dit dans le sommaire :
Le monde vit actuellement une deuxième révolution quantique. Les technologies quantiques évoluent depuis plusieurs décennies, passant du concept théorique à la mise en pratique. Une évolution qui inclut des améliorations constantes et accélérées des capacités, des réductions de coûts et une variété croissante d’applications potentielles et nouvelles. Les technologies quantiques offrent la possibilité d’exploiter les propriétés de la mécanique quantique afin de repousser les limites du possible.
Or la partie graissée s'applique tout aussi bien à l'IA, dont la dernière avancée date ... d'hier !

Et puisque l'on parle réduction de coûts, le développement de ChatGPT, initialement commercialisé en 2022, a coûté 540 millions $ ; celui de Gemini (2023), 191 millions $ ; celui de DeepSeek (2025), juste 6 millions $...  

Par conséquent, à ce rythme-là, aussi bien en informatique classique que quantique, il est clair que les choses évoluent vite, très vite. Selon ChatGPT, l'échéancier des principaux acteurs est le suivant :


Pour la plupart, les démonstrations faites actuellement en vue de revendiquer la suprématie quantique ont concerné des problèmes algorithmiques conçus spécifiquement pour mettre en évidence les capacités des ordinateurs quantiques, mais sans applications pratiques directes. Cela est en train de changer avec D-Wave ou IonQ, par exemple, et les acteurs chinois ou d'autres vont probablement nous réserver quelques surprises.

Or pour atteindre une suprématie quantique reconnue, applicable, durable, robuste, répétable, incontestable et utile, il faudra disposer de processeurs quantiques tolérants aux fautes (avec correction d’erreurs), capables de faire des calculs plus longs et plus fiables. Parmi les défis techniques majeurs :
  • Réduction du bruit et des taux d'erreur quantique
  • Augmentation du nombre (des milliers, voire des millions) de qubits stables, corrigeables et interconnectés
  • Qualité (finesse) des opérations quantiques (fidelité des portes logiques)
  • Développement de codes correcteurs d'erreurs efficaces
  • Avancées dans les algorithmes hybrides quantique-classique
La fourchette des prévisions que j'ai pu consulter va de 5 ans (2030) à 20 ans (2045), mais gageons qu'avec l'intelligence artificielle élevée à la puissance exponentielle de l'informatique quantique (IAIQ), l'état SUP² sera vite atteint !

Voilà pour le quand. Pour en faire quoi ? (la question reste posée...)


mardi 6 mai 2025

La quatrième révolution civilisationnelle : l'informatique quantique (IQ)

La troisième révolution civilisationnelle : l'intelligence artificielle (IA)

*

Le 7 juin 2024, l'Assemblée générale des Nations Unies a adopté la résolution 28/287 proclamant 2025 Année internationale des sciences et technologies quantiques, inaugurée les 4 et 5 février derniers, initiative à suivre sur X avec les hashtags suivants : #IYQ2025, #QuantumCurious, #QuantumFuture, #QuantumYear, #STEMEducation (où STEM signifie Science, Technologie, Ingénierie et Mathématiques).

Une journée mondiale de la quantique ayant même été fixée au 14 avril dernier. 2025 n'a pas été choisie au hasard, mais parce qu'elle marque le centenaire de la mécanique quantique, afin de sensibiliser le public à l’importance et à l’impact de la science et des applications quantiques sur tous les aspects de la vie


Dans la troisième révolution civilisationnelle, à savoir l'intelligence artificielle, je mentionnais l'informatique quantique comme la quatrième (en ajoutant un point d'interrogation que je pense pouvoir supprimer aujourd'hui). Désormais, il ne se passe pas un jour sans que sortent des infos sur l'IQ, beaucoup d'infos.

En français, je vous conseille de vous abonner à la lettre mensuelle d'Olivier Ezratty (dernière édition du mois d'avril), ou encore de suivre l'actu autour des Maisons du Quantique (initiative HQI) : 


*

En 2019, Google revendique avoir atteint la suprématie quantique avec son processeur Sycamore, en affirmant avoir réalisé en 200 secondes une tâche informatique qui aurait demandé 10 000 ans à un supercalculateur à la pointe de la technologie, une "prétention" réfutée par IBM et d'autres. Chaque année, la société a progressé ensuite, jusqu'à dévoiler sa nouvelle puce quantique, Willow, en décembre 2024, une étape cruciale depuis la création de Google Quantum AI en 2012, selon Hartmut Neven.

Quatre mois plus tard, le 26 avril 2025, Google, encore et toujours, annonce une avancée majeure dans la technologie quantique, en effectuant des calculs en quelques secondes là où ces mêmes tâches demanderaient 47 ans aux supercalculateurs traditionnels les plus avancés, tels que Frontier. Un bond en avant susceptible de révolutionner tous les domaines.

Or, quelques jours plus tôt, j'avais vu passer une "vieille" info surprenante (au moins pour moi !) : grâce à sa puissance de calcul, l'informatique "classique" (très haute performance, quand même) est en mesure d'effectuer 125 millions de milliards d'opérations en virgule flottante par seconde (125 pétaflops) de performances maximales grâce à 4000 milliards de transistors et 900 000 cœurs de calcul optimisés pour l'IA :

Le système CS-3 est conçu pour entraîner des modèles de langage 10 fois plus grands que GPT-4 et Gemini, pour ne citer qu'eux. Il s'appuie pour cela sur un important système de mémoire pouvant atteindre 1,2 pétaoctet. Par ailleurs, 24 000 milliards de modèles de paramètres peuvent être stockés dans un seul espace mémoire logique sans partitionnement ni remaniement, assure Cerebras. (...) Les configurations compactes à quatre systèmes permettent d'affiner des modèles de type 70B en une journée, tandis qu'à grande échelle, en utilisant 2048 systèmes, Llama 70B peut, par exemple, être entraîné à partir de rien en une seule journée.

(Source : L'Usine digitale). 

Où 70B signifie 70 milliards de paramètres... Du reste Meta collabore déjà avec Cerebras :

Les développeurs s'appuyant sur le modèle Llama 4 Cerebras dans l'API peuvent s'attendre à des vitesses de déploiement jusqu'à 18 fois supérieures à celles des solutions GPU traditionnelles. Une accélération qui ouvre la voie à une toute nouvelle génération d'applications, impossibles à développer avec d'autres technologies.

Donc, en mettant en relation ces deux infos, où un supercalculateur peut entraîner un modèle d'IA gigantesque en une seule journée alors qu'il lui faudrait 47 ans pour effectuer les tâches accomplies par l'ordinateur quantique de Google, j'en ai conclu que ce dernier pourrait entraîner les futurs modèles géants d'IA en quelques secondes à partir de rien !

Conclusion hâtive et inexacte, due à mon ignorance en la matière ! En faisant des recherches pour expliquer ce cas de figure tout à fait incroyable, j'ai trouvé l'article intitulé : « Informatique quantique et IA : moins compatibles que prévu ? », rédigé le 8 octobre 2024 par Filippo Vicentini (professeur assistant en intelligence artificielle et physique quantique à l'École polytechnique - IP Paris), extrait du n° 8 d'octobre 2024 du magazine Le 3,14 de Polytechnique insights.

En bref, on y apprend que les ordinateurs quantiques sont notamment très lents (!), et que seuls des calculs très courts sont effectués sans pannes. Cela étant dû au fait qu'ils sont adaptés et utiles pour les applications qui nécessitent des entrées et des sorties limitées, mais une puissance de traitement énorme, mais probablement pas pour tout ce qui concerne les données volumineuses et les réseaux neuronaux (les IA, donc) :

De plus en plus d’experts reconnaissent que les ordinateurs quantiques resteront probablement très lents lorsqu’il s’agira d’entrer et de sortir des données. Pour vous donner une idée, nous pensons qu’un ordinateur quantique qui pourrait exister dans cinq ans – si nous sommes optimistes – aura la même vitesse de lecture et d’écriture qu’un ordinateur moyen de 1999-2000.

Et M. Vicentini de conclure : « Je pense que l’IA et l’informatique quantique seront des composants différents dans une pile d’outils – complémentaires mais non compatibles. »

C'est à n'y plus rien comprendre ! À la même époque IBM nous disait qu'il pourrait y avoir convergence des deux dans l'intelligence artificielle quantique (IAQ), et que l’IAQ pourrait par exemple faire passer la durée d’entraînement des LLM (grands modèles de langage) de plusieurs semaines à quelques heures, permettant ainsi la création quasi instantanée de nouveaux assistants IA hautement spécialisés dans des sujets complexes, techniques ou même expérimentaux.

En gros, mon postulat de départ ! Donc que croire ? Qui croire ? Selon les IA à qui j'ai posé la question de la compatibilité entre intelligence artificielle et ordinateurs quantiques (je ne parle pas ici de l'utilité de la première pour les seconds, mais de la puissance de calcul quantique des seconds au service de la première), toutes ont pratiquement les mêmes réponses : bien que l'entraînement des LLM grâce à l'informatique quantique soit une perspective théorique prometteuse, cela reste un domaine de recherche en développement. Et avant que cela ne devienne une réalité pratique, probablement pas avant 10 à 15 ans, des avancées significatives sont nécessaires tant au niveau de l'hardware quantique que des algorithmes.

Or il semble qu'une équipe de scientifiques et d'ingénieurs chinois ait déjà réalisé, il y a moins d'un mois, une première mondiale dans l'intégration de l'IA et de l'informatique quantique : l'ordinateur quantique Origin Wukong devient le premier au monde à affiner un modèle d'IA à un milliard de paramètres !

Là encore, que croire, qui croire ? Sur le terrain de l'IA, il est fort probable que l'informatique quantique ne concurrence pas l'informatique classique dans l'immédiat (voire jamais), et que l'on s'oriente plutôt vers une approche hybride combinant les deux, avec une convergence progressive vers l'intelligence artificielle quantique.  

Entre-temps, autant les grands acteurs - Google, IBM, Apple, Microsoft, Meta, xAI, Amazon, Nvidia, OpenAi, etc., tous très actifs dans les domaines IA/IQ - que les gouvernements et les instances internationales, dont l'Union européenne, souhaitent placer leurs pions :

La feuille de route de Google

* La feuille de route et la vision d'IBM


* Apple se prépare à la puissance de l'informatique quantique pour des communications inviolables :

« Grâce à un chiffrement résistant aux compromissions et à des défenses étendues contre les attaques quantiques les plus sophistiquées, PQ3 est le premier protocole de messagerie à atteindre ce que nous appelons le niveau 3 de sécurité, offrant des protections de protocole supérieures à celles de toutes les autres applications de messagerie largement déployées. À notre connaissance, PQ3 possède les propriétés de sécurité les plus solides de tous les protocoles de messagerie à grande échelle au monde. » 

 * Microsoft prévient que les États-Unis risquent de se laisser distancer par la Chine, qui investit des milliards dans les technologies quantiques, en soulignant l'urgence d'une action coordonnée entre le gouvernement, le monde universitaire et l'industrie. Le groupe appelle donc à accroître le financement fédéral de la recherche, à stimuler le développement des talents quantiques et à consolider la production quantique nationale afin de maintenir le leadership technologique des États-Unis dans la course mondiale à l'informatique quantique.

* Meta accélère sur l'IA multimodale et l'agentique, alors que la société dispose déjà de l'un des supercalculateurs les plus puissants du monde, et les plus rapides : le SCR (SuperCluster de Recherche), avec une puissance de calcul atteignant près de 5 exaflops, peut effectuer un quintillion de calculs par seconde : « Pour mieux comprendre cette prouesse, il faudrait effectuer un calcul chaque seconde pendant plus de 31 milliards d'années pour égaler ce que le SCR peut réaliser en une seule seconde. »

Quant au positionnement de la société sur le quantique, Zuckerberg est plus attentiste, en déclarant que les ordinateurs quantiques étaient à plus de 10 ans de devenir utiles. Il est davantage branché sur le développement d'une intelligence artificielle générale, puisqu'il a déclaré le 30 avril, lors de la présentation des résultats trimestriels, « We are focused on building full general intelligence. » 

* Concernant Elon Musk, se quête insatiable de puissance de calcul pour xAI ne faiblit pas. Après avoir mis en libre accès le programme de son robot conversationnel Grok, intégré à X, il a annoncé en mars 2025 la fusion de son entreprise xAI avec sa plateforme X pour mieux consolider les données, les modèles et les ressources informatiques des deux équipes. En revanche, bien qu'assez silencieux sur l'informatique quantique, il a manifesté son intérêt en répondant « Wow » à un post de Sundar Pichai, PDG de Google, sur la nouvelle puce « Willow » de Google Quantum AI, avant d'échanger avec lui sur la possibilité d'installer un « cluster quantique dans l'espace avec Starship », en référence au projet de vaisseau spatial de SpaceX destiné à transporter des humains et du fret vers la Lune, Mars et au-delà. Réponse de Musk : « Cela arrivera probablement »... 

* Amazon, qui concurrence déjà Starlink de Musk dans la commercialisation de connexions satellitaires très haut débit depuis l'espace, est déjà bien présent dans le calcul quantique avec AWS, parfaitement opérationnel. La suite viendra d'elle-même !

* Nvidia, après une intrusion (au sens où personne ne s'y attendait...) dans la traduction automatique, dans les LLM (sous licence), dans la robotique et la voiture autonome, etc., a signé le 20 mars 2025 un partenariat avec Pasqal (pépite française du quantique) en vue de développer le calcul intensif quantique accéléré, en intégrant les solutions de tiers sur Cuda-Q, la plateforme de simulation quantique de Nvidia (NVAQC, basé à Boston). Après les puces les plus performantes du secteur, la société met au point ses propres unités de traitement quantique (QPU), destinées à être embarquées dans des supercalculateurs IA de pointe...

* OpenAI a lancé le projet Stargate en janvier 2025, qui prévoit d'investir 500 milliards de dollars sur 4 ans, et le déploiement d'un centre de données dédié à Abilene, au Texas, d'ici fin 2026... Aux côtés d'OpenAI, les premiers financeurs sont SoftBank, Oracle et MGX, et les principaux partenaires technologiques ARM, Microsoft, NVIDIA et Oracle.

* Les États-Unis ne sont pas en reste, d'ailleurs Trump a toujours été très actif sur le sujet (la loi nationale sur l'initiative quantique a été promulguée sous son premier mandat), et il n'y a qu'à voir la photo de famille lors de sa seconde investiture pour mieux comprendre : 

* La Darpa (à l'origine d'Internet, quand même...) a sélectionné le 3 avril 2025 pour la première phase de son programme Quantum Benchmark Initiative les entreprises retenues : Alice & Bob, Atlantic Quantum, Atom Computing, Diraq, Hewlett Packard Enterprise, IBM, IonQ, Nord Quantique, Oxford Ionics, Photonic Inc., Quantinuum, Quantum Motion, QuEra Computing, Rigetti Computing, Silicon Quantum Computing Pty. Ltd., Xanadu. Des noms connus et moins connus, mais dont l'on entendra probablement parler dans les années à venir.

* Le Canada ouvre la voie avec d’importants groupes d’expertise dans les deux domaines IA-IQ. En mars 2014, le Conseil des Académies Canadiennes (CAC) a publié un rapport intitulé « Potentiel quantique », rédigé par un comité d’experts sur l’adoption responsable des technologies quantiques. Par ailleurs, la société canadienne D-Wave, qui accompagne Google depuis 2013 (à moins que ce ne soit le contraire), a récemment affirmé avoir réalisé avec un ordinateur quantique (développé depuis déjà quelques années) une simulation qui aurait demandé un million d’années avec l’informatique classique...

* La France, qui organise le 10 juin prochain, à la Station F, France Quantum, déploie une Stratégie Nationale Quantique dans le cadre du plan France 2030, avec vocation à devenir un acteur incontournable des technologies quantiques. Les militaires également se lancent dans la course au calculateur quantique universel en se donnant les moyens de leurs ambitions (500 millions d'euros), pour développer le programme Proqcima du ministère des Armées en vue de réaliser deux prototypes français d'ordinateurs quantiques universels de 128 qubits logiques (soulignons au passage qu'en français, Qubit, phonétiquement parlant, c'est pas le top...).  

* Enfin, l'Union européenne, qui a déjà financé une initiative de recherche scientifique à hauteur de un milliard d'euros, Quantum Technologies Flagship, a adopté en 2024 la loi sur l'IA (à explorer), visant à soutenir le développement d’une IA digne de confiance, qui s'inscrit dans un cadre législatif plus ample comprenant le pacte sur l'IA, un train de mesures sur l’innovation dans le domaine de l'IA, le lancement d’usines d'IA, ainsi qu'un plan coordonné en matière d'IA, sans oublier Jupiter, le premier supercalculateur exaflopique d'Europe, dans l'attente du Jules Verne, qui devrait dépasser le seuil du milliard de milliards de calculs par seconde...

*

Et ce n'est pas du quantique, mais du "classique", j'ai besoin de réfléchir ! 😀

D'autres acteurs potentiels sont Intel, Quantinuum, Rigetti Computing, China Telecom Quantum Group, IonQ, le CERN et son Open Quantum Institute, SECQAI ou semblables, mais ce sera pour une autre fois...

Dernière info : un congrès international aura lieu à Naples à la fin de l'année sur l'IAQ, du 2 au 5 novembre, « 2025 IEEE International Conference on Quantum Artificial Intelligence »

*

En conclusion, il est clair que tôt ou tard la partie logicielle (l'IA, le cerveau) et la partie matérielle (l'IQ, le corps) fusionneront, avec une puissance telle que l'humanité n'a jamais rien connu de semblable depuis le Big Bang ! Le problème n'est plus de savoir si la fusion Superintelligence artificielle / Suprématie quantique aura lieu, mais quand ? Cela étant, une question demeure : pour en faire quoi ?

Pour améliorer les conditions de vie de l'humanité et de la planète, ou juste pour assurer toujours davantage l'emprise stricte des quelques acteurs qui détiendront cet incommensurable pouvoir SUP² sur la multitude de celles et ceux qui en dépendront ? J'ai ma petite idée de la réponse, et elle n'est pas très optimiste...


samedi 3 mai 2025

Intelligence artificielle - Quatrième bloc

Intelligence artificielle - Premier bloc

Intelligence artificielle - Deuxième bloc

Intelligence artificielle - Troisième bloc

Les quatre blocs en PDF

*

  1. L'intelligence artificielle et le marketing
  2. L'intelligence artificielle et la comptabilité
  3. L'intelligence artificielle et l'éducation
  4. L'intelligence artificielle et l'enseignement
  5. L'intelligence artificielle et la formation
  6. L'intelligence artificielle et les langues
  7. L'intelligence artificielle et la culture
  8. L'intelligence artificielle et les services publics
  9. L'intelligence artificielle et les loisirs
  10. L'intelligence artificielle et les bibliothèques

*

1. L'intelligence artificielle et le marketing

Sur mon profil X-Twitter est restée la mention Translator & Interpreter | Content & Language Consultant | Branding & Web Marketing Coach for freelancers, qui témoigne de mon intérêt pour le Branding/Marketing. Entre 2008 et 2017 j'ai animé une dizaine de sessions dédiées aux professionnels des langues entre Tunisie, Italie et France, documentées sur SlideShare dans mes présentations et autre documentation (à ce jour globalement vues 200 000 fois). Mon introduction est la plus consultée :


Ainsi, en partant de tout le matériel didactique et formatif réalisé pour les langues, l'idée m'est venue de le retravailler pour en faire un guide pratique à l’intention des freelances, des consultants indépendants et de tous les professionnels libéraux travaillant en solo, mais également des TPE/PME-PMI à la recherche de pistes de réflexion et de méthodes pour promouvoir leur image et leur notoriété. En effet, les bouleversements en cours qui intéressent l'ensemble des professions libérales n'étant pas prêts de s'arrêter..., j'ai affiné SOLO² :


Déclinaison du SOHO (Small Office / Home Office), le SOLO² est un concept réactualisé du travail en indépendant, qui entend adapter une philosophie de Lean Office à une version « Small », personnalisée, en éliminant les nombreux gaspillages de temps, d’énergie et, donc, d’argent, qui caractérisent souvent la façon de travailler à domicile, et s’inspirer du branding & marketing à l’intention des auto-entrepreneurs et des professionnels exerçant en profession libérale, voire en portage salarial ou en société, qui sont ma cible de prédilection.

Toutefois ma conception du marketing reste artisanale, surtout orientée freelances. OK Boomer, me direz-vous, il serait temps de te mettre à la page !

Or le marketing n'est d'aucune utilité si vous n'avez rien à vendre : produits, services, ou votre professionnalisme. Donc a priori l'AI marketing concerne davantage les sociétés, bien que certaines applications de l'IA, orientées client, s'avèrent précieuses aussi pour les indépendants :

Côté production d'images et d'illustrations, DALL-E est un modèle d'intelligence artificielle développé par OpenAI (la même société qui est à l'origine de ChatGPT), dont le nom fusionne le D de Salvador Dalí à WALL-E (le robot de Pixar), pour symboliser sa capacité de créer des œuvres artistiques et technologiques, spécialisé dans la génération d'images à partir de descriptions textuelles

En fin de compte, le grand apport de l'IA est qu'au lieu de tout faire tout seul dans son coin, ça accélère le traitement de gros volumes d'infos en l'automatisant, y compris grâce à l'utilisation d'agents IA. Je vous laisse sur quelques lectures :
*

2. L'intelligence artificielle et la comptabilité

Comme pour les autres professions, l'intelligence artificielle redéfinit les métiers de la comptabilité, dont beaucoup sont promis à disparaître, ou pour le moins à se transformer en profondeur. Dès 2013, dans The Future of Employment: How Susceptible are Jobs to Computerisation? (Oxford University), C.B. Frey et M.A. Osborne prévoyaient qu'environ 47 % du total des emplois aux États-Unis auraient dû faire face à un « risque élevé d'informatisation » au cours des deux décennies successives, à savoir d'ici le début des années 2030. 

En 2018, l'étude « L'impact de la révolution digitale sur l'emploi », de l'Institut Sapiens, classait la comptabilité parmi le top 5 des métiers en voie de disparition. Nous y sommes donc ! Selon le cabinet PWC, dans son rapport intitulé Will robots really steal our jobs?, les taux d'automatisation prévisibles menaçaient potentiellement jusqu'à 30 % des emplois au Royaume-Uni, 38 % aux États-Unis ou 35 % en Allemagne, contre seulement 21 % au Japon. 

Les services financiers seraient plus touchés que les autres secteurs par la première vague d’automatisation en cours, et l'arrivée d'outils comptables dopés à l'IA ne va certes pas tranquilliser les collaborateurs des cabinets : saisie des documents, facturation électronique, réconciliation de compte, rapprochement bancaire, automatisation des tâches répétitives, analyse des données, génération de rapports, conformité réglementaire, détection des erreurs, anomalies, fraudes, etc., toutes ces opérations autrefois chronophages ne prennent plus que quelques secondes et permettent de dessiner plus finement les tendances en cours, financières ou autres.

L'évolution est donc claire quant aux aspects difficilement remplaçables par l'IA :

  • Conseil stratégique : moins de temps consacré aux tâches mécaniques, plus d'accent sur les missions à haute valeur ajoutée
  • Jugement professionnel : les situations complexes requièrent une compréhension profonde du contexte économique et humain et une évaluation subtile des risques
  • Relation client : les dimensions humaines de confiance, d'empathie et de compréhension des problématiques spécifiques sont fondamentales pour chaque client
  • Innovation fiscale et financière : l'orientation des décisions stratégiques d'une entreprise conception et une optimisation individualisée

Une situation dont les contours étaient déjà tracés dès 2021, dans l'étude « L'attractivité et l'avenir de la profession comptable á l'horizon 2040 » du cabinet Sophos, qui indiquait : « À l’horizon 2040, les cabinets d’expertise comptable (…) seront devenus des sociétés multiservices, centrées et guidées par un objectif principal ; aider les entreprises à créer de la valeur et à piloter leur performance globale ». [Début]

*

3. L'intelligence artificielle et l'éducation

L'éducation concerne l'individu en général et son développement global. Les parents éduquent (ou pour le moins devraient éduquer) l'enfant, l'adolescent (avec la collaboration de l'enseignement), puis la vie et les milieux sociaux et professionnels éduquent (ou pour le moins devraient éduquer) le jeune et l'adulte...  

Les parents sont les premiers éducateurs de leurs enfants. Leur rôle consiste à poser les valeurs et les bases humaines et affectives sur lesquelles l’école, la société et la vie viendront construire ensuite.

Que vient faire l'IA là-dedans ? En fait, pas grand chose ! L'IA n'est qu'un outil, extrêmement puissant et perfectionné, certes, mais comme tous les outils, toutes les techniques, cela dépend de qui l'utilise et comment, quand, pourquoi, dans quelles circonstances, etc.

Au niveau des parents, l'IA pourrait faciliter leur rôle de curateurs de solutions éducatives et de médiateurs technologiques pour accompagner leurs enfants dans l'appropriation et l'utilisation des mille dispositifs désormais à leur portée et les guider dans leurs usages numériques (l'avons-nous fait avec la télévision et la presse, en matière d'éducation à l'image et de décryptage de l'information ?), pour peu que les parents eux-mêmes en soient capables, ce qui est encore loin d'être évident, avec dans certains cas des renversements de situation (ce sont les enfants qui aident leurs parents à mieux maîtriser les technologies, exemple de moi et mon fils, que je consulte régulièrement pour l'utilisation de mon mobile) (perso je fais un blocage sur le smartphone et ses myriades d'applis, trop invasif à mon goût)...

Selon moi l'éducation porte bien davantage sur les composantes abstraites de la transmission des valeurs (principes moraux et éthiques), du développement de l'identité, de l'élaboration des structures mentales, de l'intériorisation des normes sociales, du développement émotionnel et relationnel, de la transmission culturelle et du sens, justement en donnant du sens à l'existence. 

Bien qu'invisible, cette dimension abstraite de l'éducation, qui façonne profondément ce que deviendra l'enfant, se transmet souvent de manière implicite, à travers l'exemple parental, les récits, les discussions adaptées à chaque âge de l'enfant qui grandit, ainsi qu'à travers les expériences significatives partagées au sein de la famille et de la communauté.

C'est pourquoi, plutôt qu'à l'éducation, je vois l'IA mieux adaptée à la formation et à l'enseignement. Du reste les enseignants ne dépendent-ils pas du ministère de l'Éducation nationale ? Or quand on voit ce qu'est devenue l'éducation aujourd'hui en France, on peut s'interroger sur le choix du terme... Je trouve la dénomination italienne d'Instruction publique beaucoup plus pertinente (quand bien même le gouvernement Meloni l'a renommé en ministère de l'Instruction et du Mérite, le choix des mots n'est jamais neutre...) !

En conclusion, l'IA est parfaite - et fortement conseillée - pour répondre aux questions que se posent les parents d'une manière générale, et plus particulièrement sur l'éducation. En revanche, dans le lien parents-enfants, son rôle se limiterait plutôt à du soutien et de l'accompagnement, car jamais elle ne remplacera la bienveillance et l'amour de la relation humaine. Par conséquent je laisse à chacun(e) le soin de choisir ses propres outils, si besoin est... [Début]

*

4. L'intelligence artificielle et l'enseignement

Lorsque l'on soumet aux moteurs du Web la requête "L'intelligence artificielle et l'éducation", la plupart des résultats renvoient à l'enseignement et non à l'éducation, alors qu'en toute logique le premier est une composante de la seconde.

Dans un cadre scolaire ou universitaire, la dimension cognitive de l'enseignement se focalise sur la transmission de savoirs et de compétences techniques. Dans ce contexte, l'IA n'a pas vocation à remplacer les enseignants/professeurs, mais plutôt à les assister pour personnaliser, optimiser et enrichir les processus d’apprentissage, à travers la personnalisation d'études de cas, l'adaptive learning, les tutoriels, la génération de quiz, de scénarios pédagogiques ou d'articles conçus par l'IA, la création de contenus en général (texte, images et autres...).

Comme dans beaucoup de domaines, nous allons donc vers une hybridation enseignement-IA, où le soutien de l'intelligence artificielle aux enseignants passe par la correction automatisée, la gestion des classes, l'analyse des besoins, voire l'accessibilité et l'inclusion pour les porteurs de handicaps (reconnaissance vocale pour les malentendants, synthèse vocale pour les malvoyants, ou traduction en temps réel pour les élèves allophones, etc.), l'enseignement dans des zones reculées (plateformes diverses) ou l'apprentissage immersif (IA + réalité virtuelle).

En bref, l’IA permet de transformer la façon d’enseigner, avec potentiellement un fort impact sur le rôle des enseignants, et de nouveaux enjeux, de nouveaux défis, de nouveaux dangers...

Quelques conseils et règles simples à respecter : explorer et tester les outils, en allant des plus simples aux plus complexes (pour la plupart, des tutoriels existent pour faciliter l’auto-formation) ; intégrer progressivement l'IA en classe, en commençant à utiliser ces outils en situation réelle avec les apprenants, tout en prévoyant des solutions alternatives pour pallier d'éventuels dysfonctionnements

Une dernière question : qui formera les enseignants ? [Début]

* 

5. L'intelligence artificielle et la formation

Les objectifs de l'enseignement sont les savoirs théoriques, ceux de la formation l'acquisition de savoir-faire et le développement de compétences pratiques dans des contextes professionnels ou techniques. On se forme soit pour un métier, soit pour se mettre à niveau et conserver son employabilité si on en a déjà un. La formation peut se dérouler dans des centres de formation professionnelle, des entreprises, des organisations, des ateliers, des lieux d'enseignement, ou via des programmes de développement personnel, des mises en situation (FEST), des séminaires, des stages, le e-learning, le tutorat, etc. Elle peut être continue, en alternance, à distance, programmée, etc., en vue d'acquérir de l'expertise, des soft skills, d'apprendre l'adaptabilité et la résilience..., cela dépend de différents facteurs : niveau d'études initial, objectifs professionnels, contraintes de temps et de budget, style d'apprentissage de chacun(e), et ainsi de suite.

L'IA intervient essentiellement pour personnaliser les parcours d’apprentissage, et améliorer l'engagement des apprenants. Il incombe à chaque responsable en charge de dispenser la formation de s'adapter aux contextes, aux équipes, et de considérer l'IA comme un outil pédagogique, non comme une solution miracle. Une entreprise peut également décider d'intégrer l'IA en interne pour former ses collaborateurs ou leur servir d'assistant numérique, voire de coach personnel.

Quelques liens pour vous inciter à approfondir :

Bonne lecture ! [Début]

*

6. L'intelligence artificielle et les langues

En général, dans le binôme "intelligence artificielle et langues", il est question d'apprentissage/enseignement des langues (essentiellement vivantes, mais pas seulement), et donc des ressources que l'IA peut mettre à disposition des élèves/enseignants. Pêle-mêle :
Autres ressources documentaires :

Enfin, on ne peut mener une réflexion sur l'intelligence artificielle et les langues sans évoquer Duolingo et Google...

Je m'étais intéressé à Luis von Ahn il y a plus de 10 ans dans une de mes présentations, diapositive n° 35 intitulée « Apprendre gratuitement les langues en traduisant le Web » :


La société, devenue depuis l'un des acteurs incontournables de l'apprentissage des langues, vient juste de lancer 148 nouveaux cours de langue élaborés à partir de l'IA :
Developing our first 100 courses took about 12 years, and now, in about a year, we’re able to create and launch nearly 150 new courses. This is a great example of how generative AI can directly benefit our learners. This launch reflects the incredible impact of our AI and automation investments, which have allowed us to scale at unprecedented speed and quality.
En gros, « Nous avons mis à peu près 12 ans pour développer nos 100 premiers cours, et tout juste un an pour lancer près de 150 nouveaux cours : c'est là un formidable exemple des avantages de l'IA générative pour nos apprenants, et cela témoigne de l'impact exceptionnel de nos investissements dans l'IA et l'automatisation, qui nous ont permis d'évoluer à une vitesse sans précédent et avec une qualité remarquable. »

Sa nouvelle devise est AI-first ! Ça doit être un partisan de MAGA (Make AI Great Again)... Dans la foulée, il a donc viré 10% de ses salariés. Voici la lettre qu'il leur a adressée :

L'avant-dernier paragraphe est intéressant : 
Ceci étant dit, Duolingo reste une entreprise qui se soucie profondément de ses employés. Il ne s'agit pas de vous remplacer par l'IA. Il s'agit de supprimer les goulots d'étranglement afin de pouvoir exploiter pleinement les personnels exceptionnels dont nous disposons déjà. Nous souhaitons d'abord que vous vous concentriez sur le travail créatif et les problèmes concrets, plutôt que sur des tâches répétitives. Nous allons donc vous accompagner en vous proposant davantage de formations, de mentorat et d'outils pour exploiter l'IA dans le cadre de vos fonctions.
Attention toutefois au retour de bâton...

Un joli petit tableau que Google vient chambouler en annonçant trois outils d'apprentissage des langues basés sur l'IA (Tiny Lesson, Slang Hang et Word Cam). Et Google, c'est ... Google !
  • Tiny Lesson est conçu pour une acquisition de vocabulaire ciblée. Les utilisateurs choisissent une langue et un thème (voyages, gastronomie, affaires) et reçoivent instantanément une liste de mots pertinents, accompagnée d'extraits audio et de définitions.
  • Slang Hang offre aux utilisateurs un aperçu du langage courant en simulant des conversations réelles intégrant l'argot local (toutefois, Google met en garde les utilisateurs contre toute inexactitude éventuelle générée par l'IA).
  • Word Cam est un outil de traduction d'images amélioré permettant à l'internaute de prendre des photos de scènes du quotidien. Les objets contenus dans ces images sont instantanément étiquetés dans la langue choisie, alliant ainsi le contexte réel à l'enrichissement du vocabulaire.
Pour l'heure, ces outils ne sont ouverts à l'exploration que sur la plateforme expérimentale de Google (certaines options prenant même en charge des dialectes régionaux). Or si l'avenir de cet écosystème en évolution n'est pas encore totalement assuré, son existence signale d'ores et déjà une accélération vers des systèmes d'apprentissage interactifs et adaptatifs.

La bataille des langues entre dans une nouvelle phase, et la concurrence pour les solutions telles que Duolingo et les autres va être rude (notamment avec l'arrivée d'un nouvel acteur : NVIDIA !)... [Début]

*

7. L'intelligence artificielle et la culture

Dès 2020, une mission « Intelligence artificielle et culture », commanditée par le Conseil supérieur de la propriété littéraire et artistique (CSPLA), a produit un rapport « fruit d’une réflexion menée à partir d’auditions, de contacts informels et de nombreuses lectures », selon ses auteures, Alexandra Bensamoun (professeure à l’Université de Rennes 1) et Joëlle Farchy (professeure à l’Université Paris 1 Panthéon-Sorbonne).


Je signale ce rapport à toutes fins utiles, car il aborde très largement les problématiques juridiques, certes incontournables, mais ce n'est pas du tout l'angle d'approche que je privilégie. Je suis plutôt branché "culture et création", et donc sur le rôle de l'IA, entre imitation et innovation culturelle, dans la production culturelle et la création liée à toute forme d'expression (art pictural, musique, cinéma, littérature, etc.), d'où les questions de la place de l'artiste / du créateur dans la chaîne et de la pertinence de l'intervention humaine dans le processus créatif.

Ainsi que sur leur corollaire : la "consommation" de culture (la consommation culturelle inclut tous les biens et services acquis pour satisfaire les besoins liés à la culture), que l'on appelle fréquemment aujourd'hui la "culture de masse" (comprendre les choix : 600 pages de thèse !)...


Le mode de production influant le mode de consommation, et réciproquement, dans une boucle évolutive où l'IA intervient - et interviendra de plus en plus - à tous les niveaux, en tenant compte du fait que la culture n'est pas, a priori, un objet de consommation comme les autres, et qu'elle génère un comportement des consommateurs toujours plus complexe :
À l’heure actuelle, on observe l’existence d’un « homo consumericus de troisième type », c’est-à-dire un « turbo consommateur flexible » (décalé, mobile) totalement libéré des anciennes cultures de classe, imprévisible dans ses goûts, à la recherche d’expériences émotionnelles et de mieux-être, de qualité de vie, d’authenticité, d’immédiateté.

D'autre part, il est désormais notoire que l'IA, pour entraîner ses moteurs, est à la recherche permanente de données qui ne lui appartiennent pas mais qui ont été créées par d'autres, les véritables titulaires des droits... Donc la transparence des fabricants d'IA dans l’utilisation des contenus qu'ils "pompent", outre devenir si possible un "levier de rémunération" pour les auteurs (j'ai observé que les robots conversationnels d'IA indiquent toujours plus fréquemment les sources de là où ils vont puiser leurs raisonnements), est en fait une véritable reconnaissance de la paternité des contenus.

Côté consommateurs, bien que, potentiellement, toutes et tous aient "librement" et "gratuitement" accès à la culture, qui s'est considérablement démocratisée, en réalité de nombreuses fractures (pas seulement numériques) entre classes sociales et générations entravent cet accès. Il devrait y avoir un nivellement par le bas, au sens positif, où la base de la pyramide des utilisateurs devient toujours plus large et inclusive. Car dans la réalité, aujourd'hui nous assistons plutôt à une IA dominante de sens contraire, avec une « homogénéisation culturelle forcée engendrée par les outils d’IA, essentiellement entraînés avec des textes écrits en anglais à l’aide d’algorithmes rédigés en langue anglaise, qui sont conçus pour des contextes propres aux économies avancées et alignés sur les valeurs de ces dernières. » 

Il s'ensuit que les outils et services d’IA s’adaptent souvent mal aux environnements des cultures et des pays non anglophones, et que leurs résultats dans les langues locales laissent beaucoup à désirer. Cette situation entame la confiance dans l’IA et ralentit son adoption par celles et ceux qui se trouvent du mauvais côté de la fracture numérique grandissante.

Alors qu'au contraire l'IA devrait contribuer activement à éliminer ces fractures, ou pour le moins à les atténuer, en facilitant dans toutes les langues un accès équivalent aux œuvres et à la production culturelle lato sensu.

En France, Mistral.ai tente de réduire le biais anglo-saxon de l'IA. [Début]


8. L'intelligence artificielle et les services publics

L'IA pourrait bien moderniser les services publics, MAIS, ne pas confondre vitesse et précipitation : les annonces tonitruantes des politiques d'un côté, la réalité du terrain de l'autre...

J'ai déjà traité dans mes quatre blocs le rapport entre IA et nombre de ces services publics (éducation, santé, sécurité, droit, transports, etc.), mais pas encore de la contribution, par l'intermédiaire de l'IA, de l'État, des collectivités locales ou d'autres entités publiques et administratives au déploiement de ces services, dont quelques-unes des caractéristiques principales sont les suivantes :
  • Intérêt général (réponses à des besoins collectifs de la société) 
  • Accessibilité [destinés à l'ensemble des citoyen(ne)s, indépendamment de leur situation psycho-physique,  géographique, financière ou sociale]
  • Qualité (normes de qualité minimales pour en assurer l'utilité)
  • Continuité et amélioration continue (services fournis de manière régulière et constante, sans en compromettre la fourniture, même en cas de perturbations ou de crises, y compris via la dématérialisation)
  • Adaptabilité [selon les évolutions de la société et les besoins changeants des citoyen(ne)s] [le paradoxe étant qu'il y a parfois renversement de l'adaptabilité des services publics vers l'adaptabilité des usagers, qui doivent être capables de faire les démarches en ligne parce que le progrès prend ce sens (nombre d'usagers ne pouvant bénéficier des services publics s'ils ne s'adaptent pas, d'où le concept de "maltraitance institutionnelle"...)]
  • Efficacité (capacité des prestataires publics d'atteindre les objectifs fixés en utilisant les ressources de manière judicieuse)
  • Responsabilité (des prestataires publics)
Si l'on en croit le Conseil d'État, l'IA et l'action publique doivent construire la confiance et servir la performance, en permettant d'assister l’humain dans des tâches impossibles à réaliser jusque-là...

Et puisque l'on parle de l'État, à côté des services publics, il y a aussi les services régaliens, à savoir ses missions et prérogatives essentielles, indispensables à l'exercice de sa souveraineté et à la garantie de l'ordre public :
Je les mentionne uniquement par souci de précision, car cela sort des visées (modestes) du présent billet. Je terminerai en signalant une récente publication de la CNIL sur le sujet (notamment ses recommandations relatives à l'emploi) :

[Début]

*

9. L'intelligence artificielle et les loisirs

Qu'il s'agisse du divertissement ou du tourisme (activités menées pendant le temps dont on peut librement disposer en dehors de ses occupations et contraintes habituelles), une récente étude indique les loisirs les plus populaires en France en 2024 :


En clair, par ordre d'importance :
  1. Les voyages, le tourisme
  2. Les livres et la lecture
  3. La musique
  4. Le jardinage
  5. Les spectacles, le cinéma, le théâtre, les concerts, etc...
  6. Le bricolage
  7. L'aménagement et la décoration de la maison
  8. L'actualité sportive ou le sport
  9. L'actualité politique et sociale
  10. La mode, les vêtements
  11. Les sciences
  12. L'actualité économique et financière
  13. Les techniques, en général ou dans certains domaines
  14. Les arts (peinture, sculpture, gravure, photographie d'art)
Sans fournir de liens à chaque fois sur "IA et ceci" ou "IA et cela", je vous propose de saisir vous-même les requêtes "IA + secteur" dans les moteurs et d'analyser les nombreux résultats (signe que l'IA est désormais omniprésente dans tous les domaines) ou, mieux encore, de tester directement les IA ci-dessous :
avec le prompt suivant (ou l'invite, si vous préférez) :
« Quel est l'impact de l'intelligence artificielle sur la cuisine [ou l'un des 14 secteurs ci-dessus] »
Et d'étudier ensuite les réponses, y compris les sources, lorsqu'elles sont mentionnées, puis de comparer (aussi bien entre les IA qu'entre les résultats des IA et ceux des moteurs de recherche). J'en ai fait moi-même l'expérience et je vous en parle au point suivant... [Début]

*

10. L'intelligence artificielle et les bibliothèques (livres et documentation lato sensu)

Au Canada et, au-delà de ses frontières, partout dans le monde :
L'IA aide les bibliothèques à relever des défis complexes et à répondre aux besoins changeants des chercheurs, des éducateurs et des étudiants, dans des domaines tels que l’analyse de données, la découverte de ressources et les services personnalisés aux utilisateurs. En adoptant ces innovations, les bibliothèques de recherche jouent également un rôle essentiel dans la promotion d’approches éthiques et inclusives de l'IA...
L'exemple de la BNF est particulièrement parlant à cet égard :
Plus de 40 millions de documents de multiples natures (livres, manuscrits, cartes, partitions, objets, documents sonores et jeux vidéo) dans les magasins physiques de la Bibliothèque, près de 9 millions de documents numérisés et accessibles dans Gallica, 15 millions de notices dans le catalogue général, 40 milliards d’URL collectées dans les archives de l’internet : ces chiffres donnent une idée de l’immensité des gisements documentaires sur lesquels la Bibliothèque veille. Face à une telle volumétrie, l’IA ouvre aux bibliothécaires comme aux publics de nouvelles voies vers l’intelligibilité des collections. 
Des chiffres impressionnants ! Voici pour terminer une présentation d'Alice Bernard (conseillère numérique France Services à la bibliothèque départementale d’Indre-et-Loire, et formatrice), intitulée « Les intelligences artificielles en bibliothèque » :


Voilà. Je préfère m'arrêter là. 

En concluant cette série de quatre blocs sur l'Intelligence artificielle par une expérience, vécue en préparant ce billet, et ce dixième point en particulier. Durant mes recherches de matériel sur les bibliothèques, je suis tombé sur ce passage de Umberto Eco :
« C’est une absurdité de croire qu’il faille absolument lire tous les livres que l’on achète, tout comme il est ridicule de reprocher à quelqu’un d’acquérir plus de livres qu’il n’en pourra jamais lire dans une vie. Ce serait comme dire qu’il faut utiliser tous les couverts, tous les verres, tous les tournevis ou forets que l’on possède avant d’en acheter de nouveaux. Il est des choses dans l’existence dont il faut toujours disposer en abondance, même si l’on n’en utilisera qu’une infime partie. Prenons les livres comme des remèdes : mieux vaut une armoire pleine de soins que quelques fioles esseulées. Le jour où l’âme vacille ou vacille le cœur, on ouvre alors cette armoire — non pas au hasard — mais pour y choisir le livre juste, celui qui saura panser, éclairer, relever. D’où l’importance de toujours avoir un vaste éventail de choix. Celui qui n’achète qu’un seul livre, le lit, puis s’en débarrasse, ne fait qu’appliquer à la lecture une logique de consommation. Il traite le livre comme une simple marchandise, un bien de passage. Mais ceux qui aiment les livres savent qu’ils ne sont rien de tout cela. Un livre n’est pas un produit. C’est une présence ».
dont l'authenticité a été mise en doute en adressant une demande de vérification à Grok :

Voici la réponse de Grok :

La citation attribuée à Umberto Eco semble apocryphe. Après vérification, aucune source fiable, y compris ses œuvres, discours ou le documentaire *Umberto Eco : A Library of the World*, ne confirme qu’il l’ait dite ou écrite. Bien que le propos reflète ses idées sur les livres, notamment sa notion d’« antilibrairie » et son amour des bibliothèques, les mots exacts ne sont pas authentifiés. Il est donc probable qu’Eco n’ait pas formulé cette citation ainsi.

Intrigué, j'ai décidé de demander la même vérification (en français et en italien) à d'autres IA, dont voici les réponses (sans préciser qui a répondu quoi, et en quelle langue) :

1.

La citation que vous mentionnez provient du livre N’espérez pas vous débarrasser des livres, un recueil de dialogues entre Umberto Eco et Jean-Claude Carrière. Dans cet ouvrage, Eco exprime sa vision personnelle de la lecture et de la collection de livres, soulignant que l'acquisition de livres ne doit pas être motivée uniquement par l'intention de les lire tous, mais plutôt par le plaisir d'avoir un large éventail de choix à disposition. Il compare les livres à des remèdes, suggérant que, tout comme une armoire pleine de médicaments peut être utile même si l'on n'en utilise qu'une petite partie, une bibliothèque bien fournie offre des ressources pour nourrir l'esprit aux moments opportuns.

Cette perspective met en lumière l'importance de la diversité et de la richesse des livres dans une bibliothèque personnelle, et critique une approche consumériste de la lecture qui se limiterait à lire un seul livre à la fois avant de s'en débarrasser.

Pour une exploration plus approfondie de cette philosophie, vous pouvez consulter le livre N’espérez pas vous débarrasser des livres, disponible sur des plateformes telles que Babelio. [En citant plusieurs sources, dont celle-ci.] [J'ai vérifié personnellement, et contrairement à ce qu'affirme l'IA, aucune mention de ce texte n'est faite dans le livre cité]

2.

Cette citation d'Umberto Eco provient de son livre "Cette chaire n'est pas une pipe" [Alternative : Comment voyager avec un saumon. Nouveaux pastiches et postiches]

3.

Cette citation d'Umberto Eco provient de son essai "De Bibliotheca" (ou "La bibliothèque" en français), écrit en 1981. Dans ce texte, Eco réfléchit sur la nature des bibliothèques, leur utilité et leur signification culturelle.

Ce discours a été prononcé à l'origine lors de l'inauguration de la bibliothèque municipale de Milan. Eco y développe sa vision sur la relation entre les lecteurs et leurs livres, défendant l'idée qu'une bibliothèque personnelle abondante n'est pas un signe d'ostentation mais une nécessité intellectuelle - une sorte de pharmacie de l'esprit où l'on peut trouver le remède approprié quand le besoin s'en fait sentir.

Cette réflexion s'inscrit parfaitement dans la pensée d'Eco, qui était lui-même un collectionneur passionné de livres et possédait une immense bibliothèque personnelle. Sa vision du livre comme objet culturel dépassant largement sa dimension commerciale est une constante dans son œuvre. [J'ai vérifié le discours prononcé lors de l'inauguration de la bibliothèque municipale de Milan, et cela n'a rien à voir avec la citation]

4.

Cette citation souvent attribuée à Umberto Eco circule largement sur internet, notamment dans des articles et discussions sur la bibliophilie, mais elle ne figure pas textuellement dans ses œuvres publiées. Elle semble plutôt être une reformulation libre inspirée de ses idées sur les livres et la culture, mélangée à des ajouts poétiques.

Origine probable : Un mélange d'inspirations

Umberto Eco était un grand bibliophile (il possédait plus de 30 000 livres) et a souvent défendu l'idée qu'une bibliothèque personnelle est un "antidote à l'oubli", un outil de recherche bien plus qu'une simple collection de livres lus.

Dans De Bibliotheca (1981, conférence), il compare les livres à des "remèdes" et évoque l'importance d'avoir une réserve de savoir à portée de main.

Dans Sur les épaules des géants (2017), il parle des livres comme "outils" qu'on ne consulte pas toujours, mais dont la présence est essentielle.

La métaphore des couverts/outils ressemble à des propos tenus par d'autres auteurs (comme Anatole France ou Jorge Luis Borges), mais elle a été popularisée sous le nom d'Eco.

La version exacte de la citation semble issue de forums ou blogs (années 2000–2010), où des lecteurs ont synthétisé ses idées avec une touche littéraire.

Citations vérifiables d'Umberto Eco sur le sujet

En voici une, plus authentique :

« La bibliothèque est une sorte de cerveau artificiel qui multiplie nos possibilités de mémoire. On n’a pas besoin d’avoir lu tous les livres, mais ils doivent être là, comme une pharmacie où l’on trouve le remède au bon moment. » (De Bibliotheca, 1981)

Pourquoi cette confusion ?

Eco a souvent parlé de l'accumulation culturelle et du rôle des livres comme "objets potentiels" plutôt que consommables.

Le style de la citation apocryphe est proche de sa pensée, d'où son attribution erronée.

Conclusion

La citation est inspirée d'Eco, mais reformulée de manière créative. Pour retrouver sa vraie pensée, mieux vaut se plonger dans ses essais (De Bibliotheca, Sur les épaules des géants) ou ses interviews.

Le saviez-vous ? Eco disait aussi : "Un livre non lu est plus utile qu’un livre lu, car il représente une possibilité infinie." (idée reprise par Tzvetan Todorov).

*

Je vous fait grâce des autres réponses. Résultats :

  1. La numéro 1 est fausse.
  2. La numéro 2 propose faussement deux livres où la citation n'est pas mentionnée.
  3. La numéro 3 est fausse, y compris la circonstance de la bibliothèque municipale de Milan.
  4. La numéro 4 est vraie.
En fait, j'ai demandé à 5 IA, qui m'ont fourni 4 réponses fausses, et 1 vraie. Si l'on y ajoute celle de Grok, également vraie, cela me donne au final 6 IA consultées4 réponses fausses et 2 vraies. La problématique est la suivante : lorsque vous consultez une IA, comment déterminer si les réponses qu'elle vous fournit sont fausses ou vraies ? Il en va donc de l'IA comme de tous les médias en 2025, ne jamais rien donner pour acquis, mais vingt fois sur le métier, recouper, recouper, et recouper encore les infos et les sources ! [Début]