mercredi 2 juillet 2025

IA : la revanche des métiers manuels

page IA

En France, comme dans d’autres pays, l’Éducation nationale valorise depuis des décennies les filières intellectuelles (générales, littéraires, scientifiques) au détriment des métiers dits "manuels" ou "techniques". Par défaut, cela s’est traduit par une orientation vers le bac général et des meilleurs élèves vers les études longues, par une dévalorisation sociale des filières professionnelles en plaçant les métiers manuels/professionnels comme "choix de rattrapage", et par un cloisonnement hérité d’une vision binaire et hiérarchisée du savoir entre activités "intellectuelles" et "manuelles", toujours bien ancrée dans les imaginaires collectifs, qui met arbitrairement en avant l' "intelligence théorique" et déclasse le "savoir-faire manuel".

Or avec l'IA, retournement de situation, les métiers davantage exposés à l’automatisation sont ceux purement intellectuels. J'en sais quelque chose ! Avec un processus traductionnel dépendant désormais à 95% de l'IA, il ne reste plus au traducteur que les miettes. Largement insuffisantes pour se construire une vie professionnelle et privée autour. Il va falloir réinventer le métier, pour peu qu'il existe encore dans les années futures...

Le discours dominant consiste à rassurer en disant que l’IA n'a pas vocation à remplacer l’humain, mais à le rendre plus efficace ! Je veux bien. Il est même probable que cela soit vrai. Pour autant, dans l'attente, de nombreux métiers "intellectuels" se sentent en danger, voire en voie d'extinction !

Ce sont pour le plus ceux qui impliquent des tâches répétitives, analytiques ou basées sur le traitement de données, car ces domaines sont particulièrement susceptibles d'être automatisés ou transformés, entre autres :

  • Analystes de données et statisticiens
  • Rédacteurs et traducteurs
  • Juristes et assistants juridiques
  • Comptables et fiscalistes
  • Journalistes et rédacteurs
  • Enseignants et formateurs (pour certaines tâches)
  • Analystes financiers et traders
  • Médecins et diagnosticiens (en partie)
  • Développeurs de logiciels (niveau junior)
  • Service client et support technique
Par catégories :

  • Métiers de la rédaction et de la création de contenu
  • Professions de la banque, l'assurance, la finance et la comptabilité
  • Métiers du droit et de l'assistance juridique
  • Métiers du design et de la création visuelle
  • Métiers de l'informatique
  • Métiers du conseil et de l'analyse de données
  • Professions médicales (en partie)
Autant d'activités enviées hier, dont on ne sait plus très bien si elles ont encore un avenir aujourd'hui !

*

Un véritable changement de paradigme, un immense défi à relever. Paradoxalement, les métiers manuels semblent mieux s'en sortir, lorsqu’ils sont spécialisés et porteurs d’une expertise difficile à automatiser : des métiers comme l'artisanat, la construction, l'agriculture, la mécanique, voire les soins (aide-soignants, par exemple) impliquent souvent des compétences physiques, une expertise pratique et un savoir-faire peu reproductibles dans leur intégralité. 

Il en va de même avec le sens artistique, l'adaptabilité à des situations imprévues ou l'empathie (dans les soins, l'aide aux personnes), etc. Là où l'IA automatise les tâches cognitives routinières, les compétences manuelles et humaines sont souvent perçues comme plus précieuses. On voit d'ailleurs que l'intelligence artificielle rebat les cartes, en révélant que la compétence utile n’est pas toujours celle qui produit du texte, mais celle qui agit intelligemment dans le réel, avec des activités manuelles plus concrètes, plus résilientes : le plombier ou l'électricien qui viennent vous dépanner en urgence, l'aide à domicile disponible de nuit ou le week-end, etc. etc.

Sous la pression économique autant que sociale, l'État lui-même devrait commencer à infléchir son discours (revalorisation de la voie pro, apprentissage, lycées des métiers, etc.) pour faire face à des pénuries massives dans les métiers techniques : BTP, industrie, énergie, maintenance, etc. Les filières générales ne suffisant plus à alimenter ces secteurs vitaux, la revalorisation des filières professionnelles devient un enjeu stratégique. Le manque de main-d'œuvre dans le bâtiment, la santé, la restauration, etc., et la reconnaissance croissante de leur importance économique devraient inciter l'État à agir dans ce sens. 

À quand l'amorçage d'une réflexion collective sur l’évolution du statut des métiers manuels à l’ère de l’IA ?

Car les métiers manuels aussi sont susceptibles d'être automatisés ou transformés :

  • L'IA et la robotique automatisent certaines tâches manuelles répétitives (ex. : assemblage en usine, logistique), et accroissent ainsi la demande pour des compétences techniques spécialisées, comme la maintenance de machines intelligentes, la programmation de robots ou la conception assistée par IA. Ces métiers, à la croisée du manuel et du technologique, nécessitent une revalorisation des formations professionnelles.
  • Par exemple, des secteurs comme la construction (utilisation de drones et d'imprimantes 3D) ou l'agriculture (agriculture de précision) intègrent des technologies IA, ce qui exige des compétences hybrides combinant savoir-faire manuel et maîtrise numérique.
  • L'IA a donc son rôle à jouer pour moderniser l'image de ces métiers, par exemple via des campagnes de communication générées par IA ou des formations intégrant des outils high-tech.

Tout cela devra forcément s'accompagner de changements culturels et de perception, d'une évolution des mentalités, d'une modernisation de la formation et d'une meilleure attractivité (notamment via des technologies comme la réalité virtuelle, l'apprentissage adaptatif, ou encore via une gratification économique des métiers). Cependant, sans une volonté politique forte de l'État et une réforme l'enseignement, l'IA risque de renforcer les inégalités existantes.

Quant à l'adaptation des métiers manuels menacés, il s'agira d'organiser :

  • la montée en compétences techniques (maintenance, supervision, pilotage de systèmes IA)
  • le développement d'une culture numérique (outils connectés, diagnostic, domotique, etc.)
  • la valorisation des savoir-faire humains irremplaçables (relation client, adaptation, intuition terrain)

Car nombre de ces métiers sont loin d'être sortis d'affaire :

  • Ouvriers de production et d'assemblage
  • Conducteurs de véhicules (camions, taxis, chauffeurs-livreurs)
  • Employés d'entrepôt et logisticiens
  • Agriculteurs et ouvriers agricoles
  • Cuisiniers et préparateurs en restauration rapide
  • Ouvriers du bâtiment (certaines tâches)
  • Employés de nettoyage industriel
  • Opérateurs de machines-outils
  • Postiers et trieurs de courrier
  • Gardiens et agents de sécurité (en partie) 

En bref, il s'agit pour le plus des secteurs manufacturier, minier, de la production, la logistique et le transport, l'agriculture, la construction, les services et le commerce de détail, etc. Soumis à des risques d'automatisation partielle, ils ne disparaîtront pas complètement mais évolueront vers des rôles de supervision ou de maintenance des systèmes automatisés. Ce qui ne se fera pas sans formation...

Nous sommes là bien loin de l'inutilité chronique des élucubrations du Haut-commissariat à la Stratégie et au Plan. Mieux vaut peut-être consulter cette page dédiée de France Travail...

En conclusion, les personnes devront s'adapter et développer de nouvelles compétences ! L'avenir réévalué des métiers manuels, exactement comme pour les professions intellectuelles, résidera le plus souvent dans une collaboration entre l'humain et la machine, où l'IA prendra en charge les tâches répétitives et pénibles, en permettant aux travailleurs de se concentrer sur des rôles plus complexes, valorisants et stratégiques.

mardi 1 juillet 2025

La traduction est l'un des premiers secteurs touchés par l’IA

page IA

Ce n'est pas moi (seul) qui le dit, mais ChatGPT :

L’affirmation « plus l’IA est puissante, plus on a besoin d’humains pour la cadrer » s’applique au domaine de la traduction, un des premiers secteurs touchés par l’IA...

Entre autres ! Après avoir tenté de plaider pour une utilisation responsable de l'IA par les LSP (ou les intégrateurs de solutions linguistiques, si vous préférez), autant vis-à-vis d'eux-mêmes que des clients et des traducteurs, je me rends compte que la « révolution IA » arrive aussi vite pour eux que pour nous. Sont-ils plus préparés que nous ne le sommes ?

J'ai reçu cette semaine une offre de travail d'un LSP pour un responsable linguistique dans le cadre d'un projet de longue durée en langue française. Parmi les caractéristiques minimales recherchées pour le profil, en plus d'une décennie d’expérience avérée dans le domaine linguistique, en gestion de projets, encadrement d’équipes, d'aptitudes à la communication, de disponibilité sur le long terme, etc. etc., il faut aussi - et surtout - être expérimenté dans les projets liés à l’intelligence artificielle, incluant la création de prompts ainsi que la génération et la régénération sur de grands modèles de langage (LLM) !

Ma question est simple : quel professionnel, en 2025, maîtrise un tel éventail de compétences ?

Disons un linguiste-ingénieur senior, un profil hybride d'une extrême rareté. Or tout ce qui est rare est cher ! C'est à se demander si le LSP qui lance une telle offre est bien responsable (voir plus haut) et conscient de tous les tenants et les aboutissants qu'elle implique...

J'ai tenté d'approfondir la chose en lui envoyant ce message :

Merci pour cette opportunité et pour avoir pris ma candidature en considération.
Le poste que vous décrivez — qui associe expertise linguistique de haut niveau, expérience en gestion d’équipe et de projet et familiarité avec la structuration de processus automatisés ou semi-automatisés liés à l’intelligence artificielle — vise un profil d’une grande rareté, hautement spécialisé, que l’on pourrait qualifier de linguiste-ingénieur hybride senior.
Ce rôle correspond bien à mon parcours au plan linguistique et managérial, mais pour ce qui est des composantes liées à l’IA, je pense que même un professionnel expérimenté aurait grand profit à suivre une introduction structurée aux workflows spécifiques du projet, en particulier puisqu’il s’agit d’un rôle de coordination et de leadership.
Je suis conceptuellement à l’aise avec ces technologies et activement engagé dans cet univers en évolution rapide et 
constante. Toutefois, pour garantir une efficacité optimale et une forte intégration opérationnelle avec vos outils et vos attentes, je suggérerais d’inclure une phase initiale dédiée de mise en route et de montée en compétences dès le démarrage de la mission.
Si cette approche vous semble envisageable, je serais heureux d’échanger sur les prochaines étapes et aimerais également en savoir davantage sur les détails concrets du projet.

Aucune réponse ! Bon, j'espère pour eux qu'ils trouveront la perle rare, mais je m'interroge sur cette façon, insensée selon moi, d'aborder des projets si délicats.

*

Il fut un temps où la traduction, c'était la traductrice, le traducteur. Aujourd'hui la traduction, c'est 95% l'IA + 5% la traductrice ou le traducteur ! Pire encore, dans l'esprit de la plupart des clients (voire des LSP), le travail de la traductrice, du traducteur, ne compte rien. Ou si peu. Trois fois rien, en fait (même si, comme disait Devos, trois fois rien c'est déjà quelque chose...). Au mot près, ce que j'écrivais il y a déjà dix ans dans mon plaidoyer pour un marketing de la traduction :

La traduction a été mise à mal ces dernières années : pas seulement dans les grandes écoles ou les universités, mais également auprès des agences de traduction, voire des traducteurs eux-mêmes et, last but not least, des clients qui en sont les destinataires. Autant d’acteurs pour lesquels l’image de la traduction est souvent ternie, dévalorisée. Ce marasme impacte défavorablement le marché et la pratique du métier à tous les niveaux, des tarifs à la perception générale que s’en font les différentes parties prenantes.
L’avènement d’Internet et l’explosion de la traduction automatique gratuite n’y sont pas pour rien ! Avec en parallèle une concurrence devenue mondiale (déloyale, diraient certains…) du jour au lendemain, et un nivellement des prix par le bas qui semble inarrêtable.

vaut à l'identique pour les traducteurs/les traductrices ! Leur image est profondément ternie, dévalorisée, leur travail n'est pas reconnu, ou si peu, leurs compétences encore moins, et ainsi de suite. Or pour reprendre les termes de Sandrine Cabaud, citée en exergue, notre métier n’est pas un service après-vente de DeepL, où l'on exige juste de la traductrice ou du traducteur de réviser des contenus traduits en 2 secondes par une IA, de sauver des articles massacrés à coups d’automatisation, d’être rapides, bons, dispo… et invisibles. Et payés une misère, ajouterais-je.

Dans le cadre 95% IA / 5% finition (ces 95% que je qualifie depuis des années d'industrialisation du good enough), les 5% de finition sont autant dévalorisés que les traducteurs ! Pour les LSP/clients, cela semble être un simple complément du 95% IA, une opération de peu d'importance qui coule de source. Il s'agit d'un grave malentendu, d'une sous-estimation chronique de ce qu'est véritablement la finition

C'est la finition qui qualifie le traducteur de métier, qui définit le degré ultime de la qualité ! Une IA traductionnelle n'est ni plus ni moins qu'un stagiaire : sans vérification et correction finales, le client n'en aura jamais pour son argent (quand bien même il aurait payé très peu, if you pay peanuts you get monkeys), car en réalité aucun agent intelligent (intellagent ?) artificiel n'est (encore) en mesure d'assurer seul ce niveau de finition. 

5%, ça semble peu mais c'est énorme : imaginez un Rafale, qui se compose d'environ 300 000 pièces, dont 15 000 (5%) seraient défectueuses ou le fruit d'erreurs de conception ! Idem pour une traduction, d'autant plus lorsqu'elles sont sensibles.

Cette semaine, une agence avec laquelle je collabore a envoyé un mail à tous ses traducteurs, en leur disant que compte tenu du marché actuel de la traduction, ils étaient contraints de se recentrer sur la MTPE, de baisser les tarifs et d'augmenter la productivité : notre principal client exigeant des livraisons de plus en plus rapides, nous devons poser une autre condition à la poursuite de notre collaboration : lorsque nous vous enverrons une traduction pré-traduite à post-éditer pour ce client, vous disposerez de 5 heures pour traiter jusqu’à 5 000 mots !!!

Autrement dit, 1000 mots de l'heure et livraison dans la foulée ! Cette condition est totalement incongrue. A minima, j'aurais compris une livraison J+1, mais livrer le jour même ne se justifie en aucun cas. Cela ne peut pas être une exigence commerciale (il y a parfois de réelles urgences, mais par définition elles ne sont pas programmables...), c'est juste un préalable pour mettre la traductrice, le traducteur, en situation de bâcler son travail. Qui plus est pour des clopinettes. Totalement inacceptable d'une part, et contre-productif (anti-économique) de l'autre, autant pour le client/LSP que pour la traductrice, le traducteur.

Il faut quand même savoir que la plupart des clients habituels en traduction sont de grosses boîtes, qui dégagent généralement des millions de CA quand ce n'est pas de bénéfices, et que cette course effrénée à la baisse (la casse) des prix n'est le fruit d'aucune contrainte financière, si ce n'est pour graisser l'actionnaire. Les traducteurs sont juste des variables d'ajustement, corvéables à merci, une expression qui nous vient directement du Moyen Âge, lorsque les serfs étaient soumis à des corvées sans pouvoir s'y opposer (et à des impôts arbitraires de la part de leur seigneur). 

Un demi-millénaire plus tard, les choses n'ont pas changé. Elles régressent même, chaque jour davantage. C'est quand même beau, le progrès social...

samedi 28 juin 2025

L'intelligence artificielle me fatigue !

page IA

Loin de moi l'idée de renier mon émerveillement devant l'IA ! Mais après plus de deux mois de recherches intenses sur la question, pour tenter de rendre accessible sans le dénaturer ce sujet complexe - à moi-même autant que pour qui me lira -, avec des mots simples, et avoir publié, à ce jour, 18 billets pour mieux comprendre, me positionner et décider, je commence à ressentir une certaine lassitude.

Moins parce que la problématique ne me passionne plus qu'en raison d'une surcharge cognitive (pour 7 billets en projet, j'ai déjà collecté plusieurs centaines de pages d'informations...), car je suis loin d'avoir épuisé le sujet. J'ai donc choisi de prendre une pause dans mes publications. Elle durera, le temps qu'elle durera ! (trois jours...)

J'ai demandé à ChatGPT de me rédiger un questionnaire d’auto-évaluation en dix questions sur le thème « Suis-je concerné par la fatigue de l’IA ? », que je vous propose ici. Il est écrit dans un format clair et peut être utilisé dans toutes les situations.



Évaluez votre seuil d’exposition, d’agacement ou de lassitude face à l’IA à toutes les sauces :

Instructions : Pour chaque affirmation, cochez la case correspondant à votre ressenti :
🟢 Jamais – 🟡 Parfois – 🔴 Souvent


🔸 1. Je me sens dépassé·e par la vitesse à laquelle l’IA envahit mon quotidien

🔲 Jamais  🔲 Parfois  🔲 Souvent

🔸 2. Je reçois trop d’informations sur l’IA (actualités, débats, innovations, outils…)

🔲 Jamais  🔲 Parfois  🔲 Souvent

🔸 3. J’ai du mal à savoir ce qui est vrai ou exagéré quand on parle d’IA

🔲 Jamais  🔲 Parfois  🔲 Souvent

🔸 4. Je ressens de l’agacement quand une IA s’invite dans mes outils ou mon travail sans que je le demande

🔲 Jamais  🔲 Parfois  🔲 Souvent

🔸 5. Je me méfie de plus en plus des images, vidéos ou textes que je vois en ligne

🔲 Jamais  🔲 Parfois  🔲 Souvent

🔸 6. J’ai l’impression qu’on m’impose l’IA comme une solution à tout

🔲 Jamais  🔲 Parfois  🔲 Souvent

🔸 7. Je suis fatigué·e d’entendre parler de l’IA comme d’une révolution permanente

🔲 Jamais  🔲 Parfois  🔲 Souvent

🔸 8. Je me sens inquiet·ète pour l’avenir de mon métier à cause de l’automatisation

🔲 Jamais  🔲 Parfois  🔲 Souvent

🔸 9. Je ressens un manque de contrôle face à l’IA dans mes outils numériques

🔲 Jamais  🔲 Parfois  🔲 Souvent

🔸 10. Je préférerais parfois revenir à des outils ou interactions plus « humains »

🔲 Jamais  🔲 Parfois  🔲 Souvent


🧾 Interprétation des résultats

  • 🟢 Jamais0–10 pointsSérénité digitale
    Vous êtes attentif à l’évolution de l’IA, sans surcharge émotionnelle. Vous gardez une bonne distance critique.

  • 🟡 Parfois11–20 pointsLéger inconfort
    Vous commencez à ressentir une certaine lassitude ou confusion. Il peut être utile de ralentir votre exposition et de mieux choisir vos sources.

  • 🔴 Souvent21–30 pointsFatigue de l’IA probable
    Vous êtes manifestement saturé ou en perte de repères face au discours et à l’usage de l’IA. Un besoin de pause, de recentrage ou de formation ciblée peut s’imposer.


Pour ce qui me concerne, l'interprétation est simple : 30 points, j'ai répondu « Souvent » à toutes les questions ! Le technostress dû à l'hyperprésence de l'IA m'accable :-)

Et vous ?

*

En effet, l'IA est partout, tout le temps, parfois sans que nous nous en rendions compte, et elle le sera de plus en plus, mais comprenons-nous vraiment ce qu’elle est, ce qu’elle fait, ce qu’elle implique ? Loin des robots de science-fiction, c’est avant tout un outil qui apprend à partir de données. Elle reconnaît des formes, classe des informations, prend des décisions… mais sans conscience ni intentions.

Comme toute les technologies puissantes, elle peut être mal utilisée, occasionner des dérives :

  • Biais et injustices : si l’IA est formée avec des données discriminantes, elle peut reproduire ces biais.
  • Surveillance excessive : certaines IA collectent des données personnelles sans transparence.
  • Manipulation de l’opinion : les IA génératives peuvent facilement désinformer, produire de fausses images ou des discours trompeurs.
  • Perte de contrôle : quand les décisions deviennent automatisées, les humains peuvent perdre leur pouvoir d’agir.

Pour autant, nous ne sommes pas impuissants. Quelques réflexes à adopter :

  • Poser des questions : d’où viennent les données ? Qui contrôle l’outil ?
  • Exiger de la transparence : suis-je en train de parler à une machine ?
  • Refuser l’illusion : une IA qui parle ou qui bouge comme un humain… n’en est pas un.
  • Encourager l’éthique : toute IA doit respecter la vie privée, l’égalité et la dignité.

L’intelligence artificielle n’est ni bonne, ni mauvaise en soi. Elle dépend des humains qui la programment, l’entraînent, l’exploitent. C’est donc à nous, collectivement, de poser des limites, d'orienter son usage dans le bon sens.

Arrêtons de fantasmer, et posons-nous les bonnes questions ! Si vous avez déjà été surpris ou dérangé par une IA, partagez votre expérience en commentaire, rien de tel que le dialogue pour appréhender un sujet qui mérite d’être mieux compris !

mardi 24 juin 2025

La remise en question des LLM et leurs évolutions probables

page IA

Nous découvrons à peine la « merveilleuse puissance » des grands modèles de langage (LLM), mis au goût du jour par les IA (via leurs moteurs de réponse, on pose n'importe quelle question en n'importe quelle langue dans n'importe quel domaine et l'IA répond comme un "simple" agent conversationnel...), qu'ils sont déjà remis en question par des pointures comme IBM ou Yann LeCun, voire carrément décrits comme obsolètes par ce dernier !

Selon ses dires, David Cox, vice-président Modèles d'IA chez IBM Research et responsable du développement et de la formation des grands modèles de langage d'IBM, a inventé le terme « informatique générative » pour décrire l'évolution qu'il observe dans le développement de l'IA, désormais de l'ingénierie logicielle, où les grands modèles de langage devraient être traités comme des éléments programmables, plutôt que comme des interlocuteurs intelligents.

Il s'agit de passer de l'invite à la programmation : « Les LLM ne remplacent pas la programmation », a-t-il déclaré, « ils deviennent une nouvelle forme de programmation primitive. »

Aujourd'hui, interagir avec un vaste modèle linguistique s'apparente souvent à invoquer un oracle capricieux, « vous tapez quelque chose et vous obtenez une réponse différente selon la façon dont vous le formulez », a déclaré Ruchir Puri, directeur scientifique d'IBM Research. « Comme aux débuts de la recherche, nous en sommes encore à l'ère où une virgule peut modifier le résultat. Impossible de gérer une entreprise de cette façon. »

Pour IBM, le postulat consiste à considérer les LLM comme des infrastructures programmables, à définir une nouvelle approche de l'utilisation des modèles d'IA, à repenser l'intégration de ces modèles dans les systèmes comme des composants logiciels modulaires et contrôlés. Selon Cox, « le prompt engineering n’est pas de l’ingénierie, c’est du bricolage. Nous avons besoin d’un système où nous n’avons pas à espérer que le modèle comprenne ce que nous voulions dire, mais où nous pouvons le programmer pour qu’il fasse ce que nous voulons. »

Le principe du generative computing est simple : traiter le modèle comme une fonction. Au lieu d’enfouir des instructions dans des textes verbeux, les développeurs doivent utiliser un environnement d’exécution – une couche d’orchestration – qui découpe les prompts en parties atomiques, les achemine, vérifie les conditions et réécrit les échecs. La logique n’est plus seulement implicite, elle est appliquée. Le contrôle devient explicite. 

« Pensez à Internet », explique Cox. « Vous n’envoyez pas des données brutes en espérant qu’elles arrivent intactes. Il y a des protocoles, des relances, du routage. C’est ce que nous ajoutons à l’IA. »

Concrètement, cela signifie construire des systèmes en couches qui décomposent les tâches complexes en instructions plus petites, vérifiables étape par étape. « Vous pourriez avoir une vingtaine de petits prompts ciblés plutôt qu’un seul long et complexe », indique Puri, « mais vous pouvez désormais les journaliser, les relancer, construire des solutions de secours. C’est ce dont les entreprises ont besoin. »

*

Selon Yann LeCun, pionnier de l’intelligence artificielle et lauréat du prix Turing, les gens qui ont toute leur tête n’utiliseront plus les LLM : « Ma prédiction est que personne sain d’esprit ne va utiliser les LLM, peut-être d’ici 5 ans. Ils seront dépassés. » Il défend une vision ambitieuse pour l’avenir de l’IA. Pour lui, l’intelligence artificielle véritablement avancée – bien au-delà des modèles actuels de type GPT – ne se limite pas à manipuler du langage, mais repose sur 1) une modélisation et une compréhension profondes du monde réel, sur 2) la mémoire, 3) le raisonnement, 4) la planification et, surtout, sur 5) l’apprentissage autonome à partir d’expériences.

1) Compréhension du monde réel : l'IA de demain doit avoir un modèle du monde. Elle doit comprendre comment le monde fonctionne au-delà des données qu'on lui fournit. Les modèles actuels (LLMs comme GPT-4) n'ont pas de compréhension causale du monde ; ils associent des symboles mais ne "comprennent" pas leur signification physique ou logique. Or les IA doivent être capables d’apprendre des représentations du monde de manière autonome à partir de perceptions sensorielles (images, sons, interactions…). Ce modèle du monde serait predictif, capable d’anticiper les conséquences d’actions, un peu comme un enfant apprend par exploration.

2) Mémoire persistante : un système intelligent doit se souvenir des faits, des événements, de ses expériences. Il doit accumuler des connaissances sur le long terme. Les IA actuelles n’ont qu’une mémoire de travail très limitée (souvent une fenêtre de contexte). Une mémoire structurelle et permanente permettrait de se rappeler des états passés, d'apprendre de manière cumulative et de créer une "connaissance" dynamique sur le monde, les agents, les objets, etc.

3) Raisonnement : le système doit être capable de raisonner, de relier des concepts, de faire des inférences. Le raisonnement n’est pas seulement logique, il est aussi spatial, temporel, analogique. Les approches purement symboliques (logiques formelles) doivent laisser la place à un raisonnement différentiable, basé sur les représentations apprises. L’objectif est une forme de raisonnement intuitif, similaire à celui des humains, intégré dans l’architecture du système.

4) Planification : un agent intelligent doit être capable de planifier ses actions dans le futur, en fonction de ses objectifs et de son environnement. La planification implique d’explorer mentalement plusieurs futurs possibles. Cela nécessite une modélisation interne du monde, permettant de simuler et d’évaluer différentes séquences d’action, ce qui va bien au-delà des IA réactives ou probabilistes.

5) Apprentissage auto-supervisé (self-supervised learning) : l’avenir de l’IA réside dans l’apprentissage auto-supervisé, comme chez les humains. Le système apprend en observant le monde, sans étiquettes. Contrairement à l'apprentissage supervisé (qui dépend de données labellisées), le système doit observer, prédire, corriger, sans supervision explicite, apprendre comme un bébé : par exploration, imitation, prédiction d’états futurs.

De manière simplifiée, l'architecture proposée par Yann LeCun se compose de ces différents modules, qui coopèrent ensemble :
  • Perception : encoder l'environnement à partir de données sensorielles.
  • Représentation latente : créer un modèle interne du monde.
  • Mémoire persistante : stocker les faits et les expériences sur le long terme.
  • Réseau de prédiction : anticiper les évolutions du monde.
  • Raisonnement/planning : simuler et planifier les actions selon les objectifs.
Ainsi, chez Meta, l’entité en charge de la recherche fondamentale en IA (FAIR, the Fundamental AI Research) oriente part de ses travaux vers une intelligence incarnée, structurée, et plus autonome que les modèles linguistiques.

*

Les grands modèles de langage basés sur l'architecture des transformateurs ont bouleversé le paysage de l'intelligence artificielle, en particulier dans le traitement du langage naturel (NLP). Dans ce contexte, une seule chose est sûre : les LLM tels que nous les découvrons et expérimentons aujourd'hui sont amenés à connaître des évolutions rapides et de profondes transformations, tant sur le fond que sur la forme. Il est probable qu'ils resteront au cœur de nombreuses applications, mais les alternatives comme les small language models (SLM), l'IA orientée raisonnement ou des systèmes hybrides gagneront du terrain.

Les préoccupations liées aux coûts, à l'efficacité énergétique et à leurs limites (comme les hallucinations) poussent vers des innovations : ils continuent à être améliorés, mais leur rôle pourrait devenir plus spécialisé face à des technologies émergentes. À moyen-long terme, ils sont en transition vers des versions plus efficaces et des paradigmes complémentaires, avec des débats sur leur durabilité et leur pertinence.

Des approches émergentes, comme celles prônées par IBM ou Yann LeCun, promettent d'ores et déjà de nouvelles évolutions vers des agents intelligents, multimodaux, interactifs, planificateurs, insérés dans des architectures plus complexes, tout en étant contraints par des enjeux d’éthique, de gouvernance et de soutenabilité.

Nous n'en sommes qu'au début...

dimanche 22 juin 2025

OpenAI et Microsoft

page IA


Cette frise chronologique retrace le partenariat né en 2019 entre Microsoft et OpenAI (créée en 2015), qui commence à battre de l'aile en 2024 après 5 années d'une collaboration - très - fructueuse : Microsoft, qui a investi massivement dans l'entreprise (un total d'environ 14 milliards de dollars depuis 2019), est le fournisseur exclusif du cloud d’OpenAI via Azure. Toutes les API d’OpenAI tournent sur Microsoft Azure, et Microsoft intègre dans ses produits les technologies d'OpenAI pour améliorer ses services avec des capacités d'IA avancées.

Au mois de juin 2024, Microsoft, dans le dépôt réglementaire de ses comptes annuels auprès de la SEC (Securities and Exchange Commission) américaine, a qualifié pour la première fois OpenAI de concurrente :
Nos offres en matière d’intelligence artificielle sont en concurrence avec les produits d’IA proposés par des hyperscalers tels qu’Amazon et Google, ainsi qu’avec ceux d’autres concurrents émergents, notamment Anthropic, OpenAI, Meta et d’autres solutions open source, dont beaucoup sont également des partenaires actuels ou potentiels.

Ainsi que dans le binôme recherche-publicité :
Nos activités de recherche et de publicité liée à la recherche et à l’actualité sont en concurrence avec Google, OpenAI, ainsi qu’avec une grande variété de sites web, de plateformes sociales comme Meta, ou de portails qui fournissent du contenu et des services en ligne aux utilisateurs finaux.
La société énumère ensuite toute une série de risques liés à l'intelligence artificielle, auxquels OpenAI pourrait ne pas être étrangère (je résume) :
Microsoft utilise de plus en plus l’intelligence artificielle (IA) dans ses produits et services, et permet aussi à ses clients d’y avoir accès pour leurs propres usages. Une partie de cette IA est développée par Microsoft, l’autre par des partenaires comme OpenAI. L’IA est prometteuse, mais elle présente aussi des risques : les algorithmes peuvent contenir des erreurs ou des biais ; les données utilisées pour entraîner l’IA peuvent être incomplètes ou problématiques ; les contenus générés peuvent être inexacts, choquants ou même illégaux.

Ces problèmes peuvent nuire à l’image de Microsoft, entraîner des plaintes, des régulations, ou empêcher les produits de fonctionner comme prévu. Il peut aussi être nécessaire qu’un humain vérifie ce que produit l’IA. Il y a également des risques juridiques, notamment liés aux droits d’auteur, à la vie privée, à la sécurité des données ou aux nouvelles lois sur l’IA comme le AI Act européen ou les décrets américains. Enfin, certains usages de l’IA peuvent poser des questions éthiques (emploi, surveillance, liberté…) et avoir des impacts sur la société. Si Microsoft propose des solutions mal encadrées ou mal utilisées, cela pourrait nuire à sa réputation, à ses clients ou à ses activités.

*

Cette alliance technologique permet à Microsoft de rester à la pointe du marché de l'IA en bénéficiant des innovations d’OpenAI, tout en fournissant à cette dernière les ressources et la puissance de calcul nécessaires pour entraîner et déployer ses modèles d'IA. Mais disons que leurs propres ambitions les positionnent de plus en plus comme concurrents réels plutôt que comme partenaires, chacune étant amenée à jouer un rôle distinct dans l'IA et l'IQ à l'avenir.

Pour l'heure, Microsoft intègre les technologies d'OpenAI dans ses produits, comme Copilot, Office 365 ou Bing, afin d'améliorer ses services avec des capacités d'IA avancées, tout en développant ses propres technologies d'IA et modèles d'apprentissage automatique, notamment via Azure AI, et ses propres initiatives de recherche, susceptibles de concurrencer les offres d'OpenAI dans le futur. 

Bien que leur partenariat soit solide, Microsoft diversifie ses efforts en IA pour réduire sa dépendance à l'égard d'OpenAI, ce qui pourrait créer une concurrence à long terme, surtout si OpenAI commercialise ses modèles directement à grande échelle. En résumé, ils collaborent étroitement pour l'instant, mais leurs intérêts pourraient diverger à mesure que le marché de l'IA évolue.

OpenAI et Microsoft, partenaires et/ou concurrents ?

Voyons le contexte initial de ce partenariat stratégique clé et les circonstances ayant conduit à la situation actuelle.

Le partenariat est né d'un besoin mutuel, les deux organisations partageant la nécessité d'accélérer l'innovation en IA : OpenAI avait besoin de ressources financières et informatiques, tandis que Microsoft cherchait à se positionner comme leader dans l'IA face à une concurrence croissante. 

En juillet 2019, dans un contexte de besoins financiers croissants pour OpenAI et d'ambitions stratégiques en IA pour Microsoft, cette dernière a annoncé son investissement d'1 milliard de dollars dans OpenAI. L'accord stipulait que Microsoft fournirait des ressources cloud via Azure pour entraîner et déployer les modèles d'IA d'OpenAI. En retour, OpenAI a accepté de collaborer avec Microsoft pour intégrer ses technologies dans les produits Microsoft, comme Azure AI et, plus tard, des outils comme Copilot.

Objectifs initiaux d'OpenAI : à l'époque, OpenAI, Organisation à but non lucratif fondé en 2015 par Elon Musk, Sam Altman et d'autres, cherchait à accélérer ses recherches sur l'intelligence artificielle générale (AGI). Cependant, les coûts croissants de développement des modèles d'IA (comme GPT) nécessitaient des ressources financières et informatiques importantes, dépassant les capacités d'une organisation à but non lucratif ou autofinancée.

Transition d'OpenAI : en 2019, OpenAI a évolué d'une structure à but non lucratif vers une entité hybride, avec la création d'une branche à but lucratif (capped-profit) pour attirer des investissements. Cela a permis de financer des projets ambitieux tout en restant aligné sur sa mission de développer une IA sûre et bénéfique.

Rôle de Microsoft : en cherchant à renforcer sa position dans l'IA et à concurrencer des géants comme Google et Amazon, Microsoft a saisi une opportunité stratégique en investissant dans OpenAI, en obtenant un accès privilégié à des technologies d'IA de pointe et en renforçant son offre cloud Azure, qui est devenue la plateforme exclusive pour les besoins informatiques d'OpenAI.

Évolution du partenariat : en 2020, Microsoft a obtenu une licence exclusive pour intégrer GPT-3 dans ses produits. Après le succès de ChatGPT fin 2022, Microsoft a renforcé son engagement avec un investissement supplémentaire de 10 milliards de dollars en janvier 2023, consolidant le partenariat. Ce partenariat a permis à Microsoft d'intégrer des technologies comme ChatGPT dans Bing, Teams, et Office 365, tandis qu'OpenAI a bénéficié d'une infrastructure cloud robuste pour ses recherches.

Résumé des évolutions majeures et des développements récents (jusqu'en juin 2025)

Consolidation en 2023

En janvier 2023, Microsoft a annoncé un investissement pluriannuel de 10 milliards de dollars dans OpenAI, renforçant son rôle de fournisseur cloud exclusif via Azure et intégrant les modèles d'OpenAI (comme ChatGPT, DALL-E, GPT-4) dans ses produits (Bing, Copilot, Office 365). Cet accord a permis à OpenAI d'accéder à des supercalculateurs Azure pour accélérer ses recherches, tandis que Microsoft a bénéficié d'un accès exclusif à certaines technologies.

Ce partenariat a suscité des inquiétudes concurrentielles, attirant l'attention des régulateurs, notamment la Competition and Markets Authority (CMA) britannique et la Federal Trade Commission (FTC) américaine, qui ont enquêté sur un possible contrôle déguisé de Microsoft sur OpenAI.

Crise de gouvernance en novembre 2023

Le licenciement temporaire de Sam Altman, PDG d'OpenAI, par son conseil d'administration a révélé la dépendance d'OpenAI envers Microsoft. Microsoft a soutenu Altman, proposant de l'embaucher avec une équipe de recherche IA, ce qui a poussé 738 des 770 employés d'OpenAI à menacer de rejoindre Microsoft si Altman n'était pas réintégré. Altman a été rétabli cinq jours plus tard, avec un nouveau conseil d'administration. Cet épisode a renforcé l'influence de Microsoft, qui a obtenu un siège d'observateur (sans droit de vote) au conseil d'OpenAI.

Tensions et renégociations (2024-2025)

Restructuration d'OpenAI : OpenAI cherche à transformer sa structure hybride (à but non lucratif et lucratif) en une "public benefit corporation" pour faciliter une éventuelle introduction en bourse. Cette transition nécessite l'accord de Microsoft, qui détient 49 % d'OpenAI Global, LLC, et pourrait perdre ses droits sur les profits futurs (plafonnés à environ 120 milliards de dollars). Les négociations, entamées fin 2024, sont tendues, avec des désaccords sur la définition de l'intelligence artificielle générale (AGI), qui permettrait à OpenAI de cesser de partager ses technologies avec Microsoft dès lors qu'elle serait atteinte.

Diversification d'OpenAI : OpenAI réduit sa dépendance à Azure en signant des accords avec d'autres fournisseurs cloud, comme Google Cloud (mai 2025) et Oracle, et en développant ses propres infrastructures, notamment le projet "Stargate" avec Oracle, SoftBank et MGX. OpenAI envisage également de produire ses propres puces IA avec Broadcom et TSMC d'ici fin 2025.

Conflits anticoncurrentiels : OpenAI a envisagé de porter plainte contre Microsoft pour pratiques anticoncurrentielles, notamment en raison de l'exclusivité Azure et des demandes de Microsoft d'accéder à la propriété intellectuelle de Windsurf, une startup IA qu'OpenAI souhaite acquérir pour 3 milliards de dollars. Google a également poussé la FTC à examiner l'accord exclusif Azure, intensifiant les pressions réglementaires.

Concurrence croissante : Microsoft développe ses propres modèles IA (par exemple, un modèle concurrent de GPT en 2024) et teste des alternatives à OpenAI, comme les modèles de xAI, Meta et DeepSeek pour Copilot, signalant une volonté d'indépendance. OpenAI, de son côté, commercialise ses modèles directement, entrant en concurrence avec les produits Microsoft comme Copilot.

Retrait de Microsoft du conseil d'OpenAI (juillet 2024)

Sous la pression des autorités antitrust (CMA, FTC, Commission européenne), Microsoft a renoncé à son siège d'observateur au conseil d'OpenAI pour éviter une enquête approfondie sur un possible contrôle déguisé. Cette décision a marqué un recul symbolique de l'influence directe de Microsoft, bien que son investissement et son partenariat technique restent intacts.

État actuel (juin 2025)

Les négociations entre Microsoft et OpenAI sont dans une phase critique, avec des enjeux autour de l'exclusivité Azure, des droits sur les profits futurs, et de l'accès aux technologies post-AGI. OpenAI propose à Microsoft 33 % de sa future entité en échange de concessions majeures, mais un refus pourrait compromettre 20 milliards de dollars de financement pour OpenAI.

Les deux entreprises affirment publiquement leur volonté de maintenir un partenariat à long terme, mais les tensions suggèrent un possible "divorce structuré". OpenAI se positionne pour une plus grande autonomie, tandis que Microsoft diversifie ses efforts en IA pour réduire sa dépendance à OpenAI.

Le partenariat reste sous surveillance réglementaire, avec des enquêtes en cours en Europe, aux États-Unis et au Royaume-Uni, ce qui pourrait forcer une redéfinition des termes.

*

Initialement synergique, le partenariat OpenAI-Microsoft est devenu plus complexe et concurrentiel. Les investissements massifs de Microsoft (près de 14 milliards de dollars au total) et l'intégration des modèles d'OpenAI dans Azure et Copilot ont renforcé leur collaboration, mais la quête d'autonomie d'OpenAI, les ambitions concurrentielles de Microsoft, et les pressions réglementaires ont engendré des frictions. Les négociations en cours pourraient soit redéfinir un équilibre, soit mener à une séparation progressive, marquant un tournant dans la course à l'IA, dont OpenAI et Microsoft resteront quoi qu'il en soit des acteurs majeurs.

samedi 21 juin 2025

Intelligence artificielle et emploi

Ou « Pourquoi parle-t-on d'ingénierie de prompts ? » #PromptEngineering

page IA

*

Par curiosité j'ai visité le site du Haut-commissariat à la Stratégie et au Plan, qui a publié le rapport Les Métiers en 2030, en recherchant plus spécialement les références à l'intelligence artificielle. Une déception totale ! Le peu de documents qui en parlent remontent tous, pour la plupart, aux années 2017-2018, en alignant des poncifs sans tenir aucun compte des évolutions et de l'impact actuel de l'IA sur l'emploi dans absolument tous les secteurs. Il faut dire que le haut commissaire au plan était Bayrou, en plein sommeil jusqu'à ce qu'il devienne le pire premier ministre de toute l'histoire de France, ceci explique cela...

Le rapport lui-même, totalement anachronique, ne mentionne l'intelligence artificielle que deux fois (sur 198 pages !) sans rien en dire, en fait :

Le contexte économique a changé depuis l’exercice précédent. Il est plus favorable, avec des résultats encourageants en matière de créations d’emplois et de réduction du chômage, mais aussi plus incertain, marqué par l’impact de la crise sanitaire, par l’urgence des changements environnementaux, par le déploiement des technologies numériques (robotisation, numérisation, intelligence artificielle, etc.) et par les effets démographiques, liés au vieillissement de la population et aux besoins de remplacement des postes qu’il induit.

Les investissements continus de ce secteur [bancaire et assurantiel], en particulier dans le cloud mais également dans des technologies plus spécifiques comme l’intelligence artificielle, seraient susceptibles d’accélérer les gains de productivité et donc d’amplifier les destructions d’emplois.

C'est tout, circulez y a rien à voir ! Pour un rapport censé parler des métiers en 2030, c'est vraiment la honte...

D'autres sources nous signalent les 15 métiers qui recruteront le plus d’ici 2030 :

  • Agents d’entretien
  • Enseignants
  • Aides à domicile
  • Conducteurs de véhicule
  • Aides-soignants
  • Cadres des services administratifs, comptables et financiers
  • Cadres commerciaux et technico-commerciaux
  • Infirmiers, sages-femmes
  • Ouvriers qualifiés de la manutention
  • Ingénieurs de l’informatique
  • Ouvriers qualifiés du second œuvre du bâtiment
  • Vendeurs
  • Médecins et assimilés
  • Techniciens et agents de maîtrise et de la maintenance
  • Ingénieurs et cadres techniques de l’industrie

ou se veulent plus optimistes :
85% des emplois de 2030 n'existent pas encore, et 400 000 nouveaux talents devraient être formés au numérique d’ici à 2030 !

Top des "talents" les plus recherchés sur le marché du numérique :

Etc. etc. Des rapports dépassés, des discours politiques encore plus inutiles, le panorama est déprimant au possible. Bien que d'autres sources se veulent plus réalistes, notamment sur le site du Centre pour l'éducation aux médias et à l'information, qui propose également ses orientations stratégiques 2024-2030, ou un site du ministère du Travail guère plus encourageant, malgré des appels à projet, des séminaires ou un programme de travail exposant les grands projets de 2025 pour explorer les transformations du monde du travail, le tableau d'ensemble ne porte pas trop à l'optimisme.

*

Le constat de tout ce qui précède est l'incroyable décalage entre la réalité des faits en 2025 et le contenu des documents censés les analyser...

Les faits, un exemple parmi tant d'autres, c'est le PDG d'Amazon qui annonce :

Le déploiement de l'IA générative et des agents devrait transformer nos méthodes de travail. Nous aurons besoin de moins de personnes pour certaines des tâches actuelles, et de plus de personnes pour d'autres. Il est difficile de prédire précisément les conséquences à long terme, mais nous prévoyons que cela réduira le total de nos effectifs au cours des prochaines années, grâce aux gains d'efficacité que nous réaliserons avec l'utilisation généralisée de l'IA.

Et d'ajouter : « Nous n'en sommes qu'au tout début... ». Reid Hoffman, cofondateur de LinkedIn, estime en revanche que l'arrivée de l'IA sur le marché du travail ne provoquera aucun « bain de sang », aucune disparition des métiers, mais plutôt une transformation radicale de l’emploi, et que l’avenir proche reposera sur le modèle « une personne + une IA ». Ce qui correspond aujourd'hui au discours dominant, à savoir que l’intelligence artificielle est loin d'être autonome à 100%, qu'elle doit rester sous la surveillance et l'intervention humaines, s'ajouter aux compétences des personnes et ne pas les remplacer (AI should supplement, not supplant).

C'est un problème bien connu en traduction, celui de la finition :

Une traduction professionnelle, comme tout produit/service au niveau professionnel, ne vaut rien si elle n'est pas finie à 100%. Or c'est l'humain qui assure la finition, certainement pas le moteur de traduction automatique, qui se contente le plus souvent de produire au mieux un contenu fade et impersonnel, au pire inexact.

Idem pour les moteurs d'intelligence artificielle... La problématique consiste donc à inventer des modes de collaboration IA-humains, une dynamique clé pour l’avenir du travail. Au lieu de se susbstituer aux humains, l'IA va redéfinir et transformer les métiers existants (les professions évoluent vers des modèles collaboratifs), créer de nouveaux rôles et de nouvelles opportunités, amplifier les capacités des personnes et augmenter leur productivité, etc.

*

Voici une analyse stratégique en plusieurs dimensions (merci ChatGpt :-) :

🧭 1. Vision : vers une société du « travail augmenté »

L’intelligence artificielle transforme profondément :

les outils (plus intelligents, prédictifs, automatisés),

les tâches (reconfigurées selon ce qui est le mieux accompli par l’humain ou la machine),

les rôles (plus transversaux, hybrides, spécialisés dans la coordination ou la supervision de systèmes d’IA).

🔹 Objectif : créer des équipes mixtes où l’IA est un coéquipier numérique, pas un concurrent.

________________________________________

⚙️ 2. Nouvelles formes de collaboration IA-humain

a. Copilote opérationnel

L’IA soutient l’humain en temps réel : suggestions de rédaction, pré-analyse de données, génération d’idées.

Ex. : un juriste aidé par une IA pour repérer des clauses à risque.

b. Mise à l’échelle des compétences

Un expert peut démultiplier son impact grâce à des assistants IA, sans être limité par le volume ou la complexité.

Ex. : en médecine, l’IA aide à trier les cas urgents ou à repérer des anomalies.

c. Cocréation

Les IA génératives participent à la création de contenu, de code, de maquettes, etc.

L’humain reste l’arbitre, le concepteur, le garant du sens.

________________________________________

🧠 3. Compétences humaines à valoriser

🔑 Soft skills critiques :

Curiosité numérique, pour tester et adopter de nouveaux outils IA.

Esprit critique, pour interpréter et valider ce que l’IA propose.

Communication augmentée, pour formuler des prompts clairs et réexploiter les réponses.

🧩 Méta-compétences :

Prompt design (savoir interroger une IA efficacement).

Hybridation métier-tech : comprendre les limites de l’IA appliquée à son métier.

Collaboration interspécifique (entre humains et IA, mais aussi humains et robots).

________________________________________

📊 4. Impact sectoriel

Secteur Exemples de collaboration IA-humain

Santé IA de diagnostic + supervision humaine

Finance Analyse prédictive + validation experte

Éducation Tutorat personnalisé + enseignant-mentor

RH Tri de CV + entretien et décision humaine

Création Co-écriture, design assisté, prototypage rapide

________________________________________

🛠 5. Recommandations pour les entreprises

🔄 Refondre les processus pour intégrer l’IA comme un levier d'efficacité, pas une couche supplémentaire.

📚 Former tous les niveaux hiérarchiques à l’usage responsable de l’IA.

🧩 Nommer des “chefs de coopération IA” (AI copilots managers, IA ops leads).

⚖️ Encadrer juridiquement la co-création homme-IA (droits d’auteur, responsabilité, auditabilité).

❤️ Inclure l’IA dans les stratégies RSE : acceptabilité, éthique, sobriété numérique.

*

J'ai souligné la partie « prompt design » (sous-entendu « prompt engineering ») pour souligner le fait de savoir, et donc d'apprendre à, interroger - et instruire - une IA efficacement.

En fait, une IA se présente comme un simple robot conversationnel, où vous posez des questions, et l'IA vous répond. La question, ou le prompt, la requête / l'instruction / l'invite, est une entrée texte donnée à l’IA pour générer une réponse. Plus la question est précise, voire complexe, plus la réponse est précise, voire complexe.

C'est ce que l'on appelle le prompt engineering, à savoir la conception / l'ingénierie de prompts, aurement dit l’art de formuler efficacement des requêtes. Exemple de prompt complexe en matière de BTP, fourni par Grok :

Tu es un expert en droit de la construction, en gestion de projet BTP et en réglementation cadastrale franco-italienne. Je suis un promoteur immobilier basé en France, planifiant un projet de construction d’un immeuble résidentiel de 10 appartements à Florence, en Italie, dans le cadre d’une succession transfrontalière où les terrains ont été hérités. Rédige une réponse détaillée et structurée répondant aux points suivants :

  • Analyse réglementaire : décris les principales étapes administratives et réglementaires pour obtenir un permis de construire (permesso di costruire) en Italie, en tenant compte des contraintes urbanistiques locales (ex. Piano Regolatore Generale di Firenze) et des normes sismiques italiennes. Compare brièvement les démarches nécessaires pour obtenir un permis de construire en France.
  • Cadastre et succession : explique comment intégrer les données cadastrales italiennes (Catasto dei Terreni et Catasto dei Fabbricati) dans la gestion du projet, notamment pour effectuer une voltura catastale après la succession. Précise les documents nécessaires et les éventuelles divergences cadastrales à anticiper. Inclus l’utilisation du Certificat Successoral Européen (CSE) pour faciliter les démarches transfrontalières.
  • Fiscalité : détaille les implications fiscales du projet en Italie, en incluant les taxes liées à la voltura catastale (imposta ipotecaria et catastale), l’IMU pour le terrain, et les taxes sur la construction (ex. oneri di urbanizzazione). Compare avec les taxes équivalentes en France (ex. taxe d’aménagement, taxe foncière).
  • Gestion de projet BTP : proposez un plan simplifié de gestion de projet pour la construction, incluant les étapes clés (études préalables, choix des matériaux, coordination des corps de métier) et des recommandations pour respecter les normes environnementales (ex. certification CasaClima en Italie ou RT 2020 en France).
  • Exemple concret : fournis un exemple chiffré d’un budget prévisionnel pour ce projet (terrain de 1 000 m², immeuble de 1 200 m² habitables), incluant les coûts cadastraux, fiscaux et de construction. Mentionne les risques potentiels (ex. retards administratifs, litiges sur la succession).

Contraintes :

  • La réponse doit être concise mais complète, avec un maximum de 2000 mots.
  • Utilise un langage technique mais accessible, adapté à un promoteur immobilier non juriste.
  • Intègre des références aux réglementations italiennes et françaises actuelles (2025), en tenant compte du Règlement européen sur les successions (650/2012).
  • Fournis des exemples concrets et des recommandations pratiques.
  • Si des informations manquent (ex. données locales spécifiques à Florence), propose des hypothèses réalistes basées sur des pratiques courantes.

Sortie attendue : une réponse structurée avec des sections claires pour chaque point (réglementation, cadastre, fiscalité, gestion, budget), des tableaux comparatifs pertinents et une conclusion avec des recommandations pour minimiser les risques transfrontaliers.

*

En clair, la complexité du prompt est multidisciplinaire [le prompt combine des aspects juridiques (succession, cadastre, fiscalité), administratifs (permis de construire, urbanisme) et techniques (gestion de projet BTP, normes environnementales)], elle prend un contexte transfrontalier en considération [en intégrant la France et l’Italie, le prompt demande une analyse comparative des réglementations, des systèmes cadastraux (Catasto italien vs cadastre unifié français) et des cadres fiscaux, tout en tenant compte du Règlement européen sur les successions], de même que certaines spécificités techniques [la référence à des normes précises (Piano Regolatore Generale, normes sismiques, CasaClima, RT 2020) et des processus administratifs (voltura, oneri di urbanizzazione) exige une connaissance approfondie du BTP et du droit immobilier], des exemples chiffrés [la demande d’un budget prévisionnel avec des coûts cadastraux, fiscaux et de construction ajoute une dimension pratique et quantifiable, obligeant l’IA à produire des estimations réalistes] et des contraintes claires [les limites de longueur, le langage accessible et l’exigence de recommandations pratiques structurent la réponse pour qu’elle soit utilisable par un promoteur immobilier].

Vous comprenez pourquoi on parle d'ingénierie de prompts ?

*

En conclusion, dans le binôme « Intelligence artificielle et emploi », quels sont - aujourd'hui, dans tous les domaines - les professionnels suffisamment formés (et par qui ?) pour être prêts à collaborer avec l'IA ?

Dans un rapport de 198 pages sur les métiers en 2030, signé du Haut-commissariat à la Stratégie et au Plan, on aurait aimé, pour le moins, une tentative de réponse à ces questions primordiales ! Pas un traître mot...

mardi 17 juin 2025

NVIDIA et DeepL

Ou « Comment traduire 60 millions de mots en 2 secondes chrono ?! »

page IA

*

Nvidia est l'une des 3 plus grosses capitalisations au monde, avec Microsoft et Apple, qui totalisent ensemble plus de 10000 milliards de $ ! Et ça va continuer de grimper...

Lors de la rédaction de mes billets sur l'intelligence artificielle, j'ai constamment retrouvé Nvidia durant mes recherches sur tel ou tel secteur. Jusqu'alors, pour moi, Nvidia c'était les cartes graphiques et le gaming. Grave erreur ! Due à une méconnaissance totale de cette société. Nvidia, c'est aussi les véhicules et la conduite autonomes, la robotique, les data centers, le calcul haute performance (CHP) et, surtout, l'intelligence artificielle. D'où mes fréquentes rencontres avec la société en écrivant à ce sujet.

Fondée en 1993 par Jensen Huang, Nvidia s’est d’abord fait un nom grâce à ses processeurs graphiques (GPU), qui ont transformé l’industrie du jeu vidéo. Les GPU GeForce, lancés dans les années 1990, ont redéfini les standards du graphisme en offrant des performances inégalées pour les jeux et les applications visuelles. Mais la société ne s’est pas arrêtée là. En comprenant le potentiel de ses GPU au-delà du gaming, l’entreprise a pivoté vers des secteurs stratégiques, notamment le calcul scientifique et l'IA. Au point de devenir l’épine dorsale de l’intelligence artificielle mondiale. 

Dernier coup de maître en date : l’annonce de la création du premier cloud IA industriel souverain d’Europe, en Allemagne, en partenariat avec Deutsche Telekom. Plus qu’un simple projet technologique, c’est un signal géopolitique, économique et écologique. Du reste, l’entreprise se poisitionne désormais comme une infrastructure centrale de l’économie numérique, en évolution constante, à l’instar d’Amazon pour le e-commerce ou de Google pour la recherche.

En 2025, Nvidia vise surtout à développer un écosystème complet, verticalement intégré, un empire technologique allant du silicium au cloud, en passant par le matériel, les frameworks logiciels, les plateformes IA, la robotique, le gaming et la simulation industrielle, la santé, la 6G ou le métavers, etc. Cet écosystème s’articule autour de plusieurs piliers interconnectés, chacun renforçant les autres pour créer une synergie unique, une chaîne complète d’innovation IA : calcul, logiciels, outils, services, modèles, cloud…

1. Le matériel (hardware) est le métier historique de Nvidia, au cœur de l’offre de la société, la fondation de tout l’écosystème. Ce sont les processeurs graphiques (GPU) et les systèmes spécialisés alimentant une vaste gamme d’applications. Inutile d'énumérer ici tous les matériels de Nvidia, je m'intéresserai juste aux unités GPU NVIDIA Blackwell de la série RTX 50, embarquant chacune 92 milliards de transistors, ou GB200, GTC 2024, offrant jusqu’à 208 milliards de transistors et une efficacité énergétique 25 fois supérieure pour les modèles IA à grande échelle... 

Soit des performances inégalées pour les jeux vidéo, le streaming, les data centers, l'entraînement et l'inférence de grands modèles de langage (LLM), les simulations scientifiques, le calcul haute performance, la cryptographie, la conduite autonome et la mobilité, la robotique et les systèmes embarqués (drones, robots industriels, chiens-guides robotisés)...

2. La couche logicielle, qui connecte le matériel et les applications, représente un écosystème robuste pour maximiser les performances de son matériel et faciliter l’adoption par des millions de développeurs, en fournissant un framework de programmation et des bibliothèques IA permettant d'exploiter la puissance des GPU Nvidia dans des applications variées (IA, simulation, cryptographie).

  • CUDA (Compute Unified Device Architecture) est le langage propriétaire pour la programmation des GPU, la base de tout l’écosystème IA de Nvidia
  • RAPIDS : traitement des données en GPU (dataframe, ML)
  • NIM (Inference Microservices) : conteneurs d’inférence IA prêts à l’emploi, par exemple pour la traduction automatique, les avatars IA, ou des outils comme Triton Inference Server
  • Modulus : Simulation par réseaux neuronaux physiques (PINNs)
  • NVIDIA AI Enterprise : suite logicielle pour déployer, gérer et optimiser des workflows IA en entreprise
  • Omniverse : plateforme collaborative pour la création et la simulation 3D en temps réel, la conception de mondes virtuels, l'architecture, le cinéma (utilisé par Pixar, ILM), l'intégration de l’IA générative pour accélérer la création de contenus 3D
  • DLSS (Deep Learning Super Sampling) : technologie IA pour améliorer les performances et la qualité graphique dans les jeux. DLSS 4 (2025), avec Multi Frame Generation, génère jusqu’à trois images supplémentaires par image calculée
  • Isaac et Cosmos : plateformes pour la robotique et les systèmes autonomes. Isaac GR00T N1 (2025) pour les robots humanoïdes et Cosmos (2025) pour les simulations IA physiques, utilisées par Uber et Wayve
  • RTX Remix : outil servant à remastériser des jeux classiques avec ray tracing et DLSS. Concours ModDB (2025) pour encourager les développeurs à moderniser des jeux

3. Les plateformes logicielles verticales proposent des services cloud pour démocratiser l’accès à ses technologies et élargir son écosystème en créant des plateformes par industrie, adaptées à des secteurs entiers.

  • Industrie & manufacturing : jumeaux numériques, automatisation, maintenance prédictive, simulation collaborative 3D en temps réel à distance (Omniverse)
  • Santé / Pharma : modèles biologiques, imagerie médicale (BioNeMo), découverte de médicaments
  • Automobile : voiture autonome, cockpit IA, simulation routière (Drive / DriveSim)
  • Télécoms : IA dans la 5G, détection d’anomalies réseau
  • Finance : modélisation, prédiction, accélération de calculs
  • Robotique et simulation de robots, perception, contrôle (Isaac)
  • Cloud gaming (GeForce NOW), intégration de DLSS 4 et prise en charge de la série RTX 50 pour des graphismes ultra-fluides (2025)
  • IA générative, IA en entreprise, avec NVIDIA DGX Cloud pour l'entraînement et l'inférence IA, basé sur les superordinateurs DGX (en partenariat avec AWS, Google Cloud, Microsoft Azure), DGX Cloud (IA-as-a-service dans le cloud), NVIDIA AI Foundry, pour aider les entreprises à créer des modèles IA personnalisés (collaboration avec SAP et Salesforce pour intégrer l’IA dans les workflows d’entreprise en 2025), NeMo (développement, tuning et déploiement de LLM), Nvidia AI Enterprise (suite logicielle certifiée pour déploiement IA en entreprise), etc.

4. Collaborations, partenariats stratégiques et intégrateurs. Nvidia ne travaille plus seule, tout son écosystème repose sur un vaste réseau de partenariats stratégiques qui en amplifient l'impact.

  • Automobile : partenariats avec Tesla, Mercedes-Benz, Volvo, BYD, et Aurora pour la conduite autonome.
  • Technologie : collaborations avec Arm (pour DRIVE Thor), MediaTek, Qualcomm (NVLink Fusion, 2025), et Nintendo (puce personnalisée pour la Switch 2, 2025).
  • Recherche et santé : coopération avec Novo Nordisk (superordinateur Gefion), le Royaume-Uni (Cambridge-1) et des universités pour la recherche en IA.
  • Sport et médias : partenariats avec la NHL et La Liga pour l’analyse de données via IA, ou avec Disney pour des robots animatroniques.
  • Cloud : Microsoft Azure, Google Cloud, Oracle, AWS (via DGX Cloud ou collaborations)
  • Collaborations industrielles : Siemens, SAP, Foxconn, BMW, TSMC, ASML
  • Open source : participation à PyTorch, Kubernetes, Hugging Face (via intégrations)

5. Domaines d’application. L’ensemble de l'écosystème s’étend à de nombreux secteurs, chacun bénéficiant de ses technologies matérielles et logicielles.

  • IA et Deep Learning : entraînement de grands modèles de langage (LLM), génération de contenu (texte, image, vidéo) et applications comme la traduction automatique via NIM.
  • Gaming : expériences immersives avec RTX, GeForce NOW, et NVIDIA ACE pour des PNJ IA interactifs.
  • Automobile : conduite autonome et systèmes ADAS (Advanced Driver Assistance Systems) via DRIVE.
  • Robotique : développement de robots humanoïdes et industriels avec Jetson et Isaac.
  • Santé : découverte de médicaments, analyse d’images médicales (collaboration avec GE Healthcare).
  • Métavers et création : Conception 3D et simulations virtuelles via Omniverse.
  • Télécommunications : Recherche sur la 6G avec le programme 6G Developer (Sionna).

6. Communauté et développeurs. Nvidia soutient une communauté mondiale de développeurs pour élargir l’adoption de ses technologies.

  • NVIDIA Developer Program : fournit des outils, SDK, et des formations pour les développeurs (par exemple, CUDA, Omniverse, Isaac).
  • NVIDIA Inception : programme pour les startups IA, offrant des crédits cloud et un accès à DGX Cloud.
  • Open source : contributions à des projets comme Llama-Nemotron-Nano-VL-8B-V1 et Sionna pour la recherche 6G.

7. Vision et impact global. Sous la direction de Jensen Huang, Nvidia se positionne comme un architecte de l’avenir technologique, avec une vision centrée sur l’IA physique (robots, véhicules autonomes) et l’IA générative. L’écosystème vise à :

  • Démocratiser l’IA : avec des outils comme DIGITS et NIM, Nvidia rend l’IA accessible aux créateurs individuels et aux petites entreprises, aussi bien en mode cloud que edge (IA embarquée sur les dispositifs divers, smartphones, etc.)
  • Optimiser les performances : l’intégration matériel-logiciel (par exemple, GPU Blackwell + CUDA) maximise l’efficacité
  • Innover dans tous les secteurs : de la santé au gaming, en passant par la 6G et le métavers.
Enfin, le Nvidia-powered cloud (nouvelle génération) ambitionne de devenir « la fabrique mondiale de l’IA ».

  • Centres de données ultra-performants (SuperPODs), refroidissement par immersion / basse énergie
  • Déploiement de clouds IA locaux (Europe, Japon, Inde, etc.)
  • Standardisation avec Nvidia AI Factory : des fermes IA clé en main, de véritables usines d'IA.

*


Pour en venir au cœur de métier de la société, les puces de Nvidia ont des performances phénoménales : sur un nœud de 2 nm (nanomètres), la GPU NVIDIA Blackwell annonce 30 petaFLOPS FP8, soit 50 % de plus que H100, une latence de ~3-5 ms, de 15 à 20 % d'efficacité énergétique gagnée, des coûts réduits de 20 %, une précision accrue (95 % vs. 80 %) et une confidentialité renforcée, sur des pipelines optimisés (TensorRT). Cela signifie qu’une puce ou un système comme le GPU NVIDIA Blackwell peut effectuer 30 petaflops (30 millions de milliards) d’opérations par seconde, en utilisant le format de calcul à virgule flottante FP8 (8 bits), optimisé pour les calculs d’intelligence artificielle (IA) comme l’entraînement et l’inférence des grands modèles de langage (LLM), en accélérant à la fois l’entraînement (60-70 jours pour mille milliards - 1T - de paramètres) et l’inférence (3-5 ms). 

En termes simples, l'inférence désigne la phase d’exploitation d’un modèle entraîné, à savoir l'utilisation du modèle pour générer une prédiction, une classification, une action à partir de nouvelles données, ou une traduction automatique (TA).

Ce sont ces caractéristiques qui ont probablement séduit DeepL, société concurrente de Google Translate et des autres acteurs majeurs de la TA (Microsoft, Facebook, ChatGPT, etc.) : le troisième SuperPOD NVIDIA DGX déployé devrait lui permettre de traduire l'ensemble du Web (environ 25 milliards de milliards de mots, soit 50 milliards de pages Web estimées à 500 mots chacune) en 20 jours, contre 200 jours auparavant (c'est mon calcul), soit une capacité de production de textes 30 fois plus élevée que les systèmes précédents !

Pour citer des chiffres plus représentatifs, le taux de traduction mots par seconde est de 14,4 millions/s (par comparaison, en quarante ans de métier, à la louche, j'ai traduit environ 20 millions de mots...), soit 866 millions de mots à la minute, 52 milliards de mots à l'heure, etc. Déjà, au vu de ces quelques stats, on comprend bien que le traducteur humain n'est plus compétitif, quantitativement parlant !  

Ne lui reste plus que la qualité : le taux d'erreur admis sur ce niveau de traduction automatique étant de 5%, cela définit assez bien la marge de manœuvre persistante, pour l'instant... Soit environ 1250 milliards de mots toujours à traduire et à corriger !

Courage, traductrices, traducteurs, gardons l'espoir, il y a encore du taf !