mardi 22 avril 2025

Intelligence artificielle - Premier bloc

page IA




*

Sommaire

Introduction

Pour l'utilisateur lambda, l'intelligence artificielle (IA) se résume à poser des questions. Les réponses sont plutôt intelligentes, claires et concises, avec une introduction, un développement articulé et une conclusion en forme de synthèse. Si l'on pense que l'IA vous répond dans l'espace de quelques secondes en n'importe quelle langue et sur n'importe quel sujet avec un très bon degré d'exactitude, la performance est suffisamment époustouflante pour être soulignée.

Idem pour la traduction : vous saisissez un bout de texte quelconque, vous indiquez dans quelle langue vous souhaitez qu'il soit traduit, et le tour est joué !

Choses encore inconcevables il n'y a pas si longtemps, avec un tel niveau qualitatif. Cela étant, chaque réaction de l'IA me fait penser à une chambre d'hôtel, du 4 étoiles au palace : bien propre, aseptisée, tirée au carré, rien ne dépasse, politiquement correcte, plus ou moins luxueuse, mais toutefois impersonnelle, pas la moindre individualité, elle m'appartient autant qu'au voisin, sans distinction, aucune singularité. En bref, chacun(e) pourrait dire, « Il y manque ma touche » !

Certes, cela n'est que le sommet de la partie émergée de l'iceberg...

*

En préparant ce billet, je ne peux m'empêcher de faire un parallèle avec celui écrit sur Facebook en octobre 2007. À l'époque, il était déjà question de Facebook tous les jours, dans tous les médias, tous les "experts" du moment proposant leur propre réponse, avec en arrière-plan un faisceau diffus d'interrogations : c'est quoi Facebook, à quoi ça sert, comment ça marche, quel est l'intérêt, en quoi cela me concerne-t-il ? Et mon propre questionnement : quoi dire, aujourd'hui, et comment le dire, pour sortir du lot ? Cela a donné le billet le plus lu de toute l'histoire de mon blog, et le seul qui m'ait valu d'être en première page des résultats de Google sur la requête "Facebook" !

Je ne prétends pas réitérer, mais 18 ans plus tard, il suffit de remplacer Facebook par IA : il est question de l'IA tous les jours, dans tous les médias, tous les "experts" du moment proposant leur propre réponse, avec en arrière-plan un faisceau diffus d'interrogations : c'est quoi l'IA, à quoi ça sert, comment ça marche, quel est l'intérêt, en quoi cela me concerne-t-il ? Et mon propre questionnement : quoi dire, aujourd'hui, sur l'IA, et comment le dire, pour sortir du lot ? Voici ma tentative de réponse.

*

L'IA est l'aboutissement idéal de l'Encyclopédie de Diderot et d'Alembert, ce fameux dictionnaire raisonné des sciences, des arts et des métiers qui portait - il y a deux siècles et demi - l'ambition considérable de présenter une synthèse des / de toutes les connaissances de l'époque. Cependant, la capacité protéiforme de l'IA (démultipliée à l'infini par les phénoménales puissances de calcul atteintes en 2025, et destinées à connaître une croissance exponentielle dans les mois et années à venir) va bien au-delà.

De facto, l'IA n'est plus une simple technologie, ou juste un outil, mais plutôt une prosthesis, selon son étymologie originelle (signifiant « action d'ajouter »), non pas pour remplacer notre intelligence (en aucun cas l'intelligence artificielle ne doit supplanter l'intelligence humaine), mais pour la fortifier, pour l'aider à prendre de bonnes (meilleures) décisions. L'essentiel n'est plus de savoir si elle va supprimer mon emploi, ou tous nos emplois, mais de comprendre son impact fondamental dans nos vies de tous les jours, dans tous les secteurs économiques, sociaux, culturels, etc., et comment elle va réinventer notre façon de travailler en particulier, et de vivre en général !

Dans L'homme augmenté. Futurs de nos cerveaux (© Éditions Grasset & Fasquelle, 2024), Raphaël Gaillard observe fort justement : « [R]ien ne dit qu’une (...) greffe de l’IA sur nos corps fonctionnerait pleinement » (il se demande même si la perspective est crédible), et prône plutôt un retour aux humanités :

Que peuvent être les humanités au XXIe siècle ? Ce qu’elles ont toujours été depuis l’Antiquité, passées de main en main, de cerveau en cerveau, de génération en génération, s’enrichissant ainsi de nouvelles traces de génie.

Redonner leur place aux humanités, ce n’est certainement pas tourner le dos aux nouvelles technologies, c’est au contraire s’armer pour naviguer vers ces nouveaux horizons.

C’est considérer la culture pour ce qu’elle est : non une fin en soi, mais un moyen. 

Ainsi de l'IA : elle n'est pas - ni ne peut, ni ne devra jamais être - une fin en soi, mais un moyen. Que chacun(e) doit apprendre à déployer en conscience et en connaissance de cause.

*

L'intelligence artificielle, que j'ai qualifiée de troisième révolution civilisationnelle, est la capacité des machines à effectuer des tâches typiquement associées à l'intelligence humaine, comme l'apprentissage, le raisonnement, la résolution de problème, la perception ou la prise de décision. C'est également le champ de recherche visant à développer de telles machines ainsi que les systèmes informatiques qui en résultent.

Toutefois, s'agissant d'un nouvel écosystème, expérimental et évolutif (machines, systèmes informatiques, intelligents, algorithmes, applications, capteurs, matériels, logiciels, réseaux neuronaux, langages, robots, modèles, agentsIA générative, agentique, etc.), il n’y a pas vraiment une seule définition qui serait universellement acceptée.

Selon la BEI, comment fonctionne l’IA ?

L’IA se nourrit de grands volumes de données, dont la quantité et la qualité forment le socle de son efficacité. Ses capacités lui permettent ensuite d’extraire de ces données certains critères et de les traiter aux fins d’un résultat. Les systèmes d’apprentissage automatique requièrent une part d’intervention humaine afin d’indiquer à la machine les modalités d’extraction des attributs recherchés. Les systèmes d’apprentissage profond, qui relèvent d’un niveau d’IA beaucoup plus perfectionné, sont capables de se former eux-mêmes et d'apprendre à extraire et à classer différentes caractéristiques.

Avec à terme, d'après Tariq Krim, un fonctionnement de l'IA en réseau de systèmes intelligents dialoguant directement sans passer par nous, et des ordinateurs auto-apprenants qui n'ont plus besoin de nous écouter (Eric Schmidt) ! [Début]

*

Cette "force de transformation" (force brute...) investit tous les domaines, toutes les sphères d'activité. La liste est infinie, je ne me limiterai donc qu'à quelques exemples. Après avoir abordé précédemment le binôme intelligence artificielle et traduction, voici 40 déclinaisons supplémentaires de l'intelligence artificielle, classées à l'intuition :

  1. L'intelligence artificielle générative
  2. L'intelligence artificielle agentique
  3. L'intelligence artificielle autonome
  4. L'intelligence artificielle et l'interaction homme-machine
  5. L'intelligence artificielle et la bancassurance
  6. L'intelligence artificielle et la finance
  7. L'intelligence artificielle et l'immobilier
  8. L'intelligence artificielle et le commerce
  9. L'intelligence artificielle et le droit
  10. L'intelligence artificielle et le travail
Ce premier billet, qui comprend les 10 sujets ci-dessus, sera suivi de trois autres (30 thèmes restants, divisés en trois blocs de 10 chacun). Pour l'heure, voici les 30 sujets, pêle-mêle, je les classerai ensuite au gré de mon inspiration...
  1. L'intelligence artificielle et les transports
  2. L'intelligence artificielle et la logistique
  3. L'intelligence artificielle et la voiture
  4. L'intelligence artificielle et la robotique
  5. L'intelligence artificielle et l'informatique
  6. L'intelligence artificielle et le militaire
  7. L'intelligence artificielle et la médecine / pharmacie
  8. L'intelligence artificielle et la santé
  9. L'intelligence artificielle et l'environnement
  10. L'intelligence artificielle et l'enseignement
  11. L'intelligence artificielle et l'éducation
  12. L'intelligence artificielle et la formation
  13. L'intelligence artificielle et les langues
  14. L'intelligence artificielle et la culture
  15. L'intelligence artificielle et la téléphonie
  16. L'intelligence artificielle et la politique
  17. L'intelligence artificielle et la domotique
  18. L'intelligence artificielle et l'énergie
  19. L'intelligence artificielle et l'agriculture
  20. L'intelligence artificielle et la sécurité
  21. L'intelligence artificielle et les services publics
  22. L'intelligence artificielle et les loisirs
  23. L'intelligence artificielle et la fabrication / production
  24. L'intelligence artificielle et la statistique
  25. L'intelligence artificielle et les ressources humaines
  26. L'intelligence artificielle et le marketing
  27. L'intelligence artificielle et les bibliothèques (livres et documentation lato sensu)
  28. L'intelligence artificielle et la cryptographie
  29. L'intelligence artificielle et la comptabilité
  30. L'intelligence artificielle et la construction / le BTP

*

1. L'intelligence artificielle générative

Selon Google, l'IA générative fait référence à l'utilisation de l'IA pour créer de nouveaux contenus, comme du texte, des images, de la musique, de l'audio et des vidéos, en s'appuyant sur des modèles de base (grands modèles d'IA ne nécessitant qu'un entraînement minimal et pouvant être adaptés à des cas d'utilisation ciblés avec très peu d'exemples de données) capables d'effectuer plusieurs opérations en même temps et de réaliser des tâches prêtes à l'emploi, telles que la synthèse, les questions/réponses, la classification, etc.

À l'opposé, à la hauteur des espoirs qu'elle suscite, elle peut aussi être source d'inquiétudes et de défis éthiques, techniques et socioéconomiques, en contribuant à des usages abusifs, accidentels ou détournés (militaires notamment), à une suppression massive d'emploi, à une manipulation de la population via la création de fausses nouvelles, de deepfakes ou de nudges numériques.

Elle fonctionne en utilisant des modèles d'apprentissage automatique (modèle Machine Learning) pour créer du contenu de manière autonome. L'une des techniques les plus couramment utilisées en IA générative est l'utilisation de réseaux de neurones artificiels : les réseaux génératifs adverses (GAN) et les réseaux de neurones récurrents (RNN). Les GAN reposent sur une architecture composée de deux réseaux de neurones dits concurrents : un générateur qui crée une image et la transmet à un discriminateur qui détermine si l'image est réelle ou synthétique. Quant aux RNN, ils sont le plus souvent utilisés pour générer du texte ou de la musique.

Elle peut servir pour alimenter la création artistique, en générant de l'art visuel, de la musique, de la littérature et d'autres formes d'expression artistique ; améliorer la création de contenu en aidant les rédacteurs à générer du contenu rédactionnel, tels que des articles, des rapports ou même des scripts pour la création de vidéos ; créer des mondes virtuels, des personnages et des scénarios dans des jeux vidéo et des simulations ; personnaliser l'expérience utilisateur en tenant compte des préférences individuelles de chaque utilisateur ; générer des données de test en informatique ou en science ; coder des programmes simples, etc. etc. [Début]

*

2. L'intelligence artificielle agentique

Contrairement à l'IA générative, qui se concentre principalement sur la création de contenu, l'IA agentique représente une approche plus complexe et dynamique de l'intelligence artificielle : elle est conçue pour prendre des décisions autonomes, poursuivre des objectifs complexes, s'adapter à des environnements changeants et prendre des mesures proactives plutôt que réactives en vue d'atteindre des objectifs spécifiques, élaborer des stratégies, planifier et exécuter des tâches en plusieurs étapes avec une autonomie allant au-delà de la simple reconnaissance de modèles.

En favorisant les actions suivantes

  • Efficacité et évolutivité améliorées des processus
  • Automatisation des flux de travail complexes
  • Évolutivité des performances
  • Réponse rapide et adaptabilité
  • Soutien des rôles humains
  • Automatisation des tâches répétitives
  • Soutien de la prise de décision
  • Expériences client personnalisées
  • Collaboration et communication
  • Créativité et innovation, etc.

l’IA agentique libère des employés qui peuvent se concentrer sur des tâches à forte valeur ajoutée.

Basée sur le déploiement d'agents IA autonomes, l'IA agentique est destinée à transformer la productivité des entreprises[Début]

*

3. L'intelligence artificielle autonome

L'avenir de l'IA : autonome signifie que le système exécute, sans intervention humaine supplémentaire, différentes actions en vue d'obtenir un résultat attendu. Toutefois les machines - voire les objets, ou les robots - deviennent ainsi des agents totalement indépendants, avec le risque de comportements imprévisibles.

Cela peut bien sûr engendrer des défis et des risques, outre soulever des questions éthiques (responsabilité en cas d’accident ou de discrimination) en provoquant des pertes d’emplois dans certains secteurs, son utilisation n'étant pas neutre en termes de sécurité et de cybersécurité (systèmes ciblés par des cyberattaques), ou de mise en place nécessaire de cadres de contrôle et de gouvernance.

2025 semble être l'année des "agents IA autonomes" :

Types d'agents auxquels nous en ajouterons un cinquième, les agents apprenants, composés de quatre fonctions principales :
  • L'apprentissage améliore les connaissances de l’agent en apprenant de l’environnement par le biais de ses préceptes et capteurs.
  • La critique fournit un retour à l’agent sur la qualité de ses réponses par rapport à la norme de performance.
  • La performance est responsable de la sélection des actions à partir de l’apprentissage acquis.
  • Le générateur de problème crée diverses propositions d’actions à entreprendre.
Tout ceci ne va pas sans risques, liés à la complexité informatique, aux dépendances multi-agents ou à des boucles de rétroaction infinies...

*

4. L'intelligence artificielle et l'interaction homme-machine

L'intelligence artificielle autonome est appelée à profondément redéfinir l'interaction homme-machine, notamment les interfaces utilisateurs (humain-machine et humain-robot).

Dans sa leçon inaugurale, prononcée au Collège de France le jeudi 24 février 2022 (Réimaginer nos interactions avec le monde numérique), Wendy E. Mackay précise que l’interaction humain-machine consiste à augmenter les capacités humaines grâce à celles de la machine.

C'est exactement la même logique que celle décrite plus haut à propos de l'IA, une prosthesis destinée non pas à remplacer notre intelligence, mais à la fortifier pour l'aider à prendre de bonnes (meilleures) décisions...

Selon Mme Mackay, il s'agit de trouver le compromis entre puissance et simplicité :

Du point de vue de la conception, le défi de la recherche en interaction humain-machine est d’augmenter les capacités humaines en fournissant une plus grande puissance d’expression, tout en maintenant la simplicité d’expression. Mais faire simple, c’est compliqué ! (...) [U]ne technologie simple à utiliser n’est souvent pas très puissante, tandis qu’une technologie très puissante est souvent difficile à utiliser.

Or l'IA étant une technologie extrêmement puissante, dynamique et évolutive, le postulat est qu'elle sera très difficile à utiliser de manière simple. Le compromis n'est plus seulement entre puissance et simplicité, mais entre avantages et défis, ce qui rend indispensable de mener une réflexion critique sur la manière dont nous adoptons et intégrons ces technologies, dans les différents secteurs. [Début]

*

5. L'intelligence artificielle et la bancassurance

Sur le rôle essentiel de l'intelligence artificielle dans le secteur bancaire, Google explique que l'IA améliore l'analyse des données, l'engagement client, prédit les tendances et les risques de fraude, et permet à divers secteurs bancaires, y compris les banques de détail, commerciales et d'investissement, de comprendre en profondeur les dynamiques du marché et les comportements des clients, d'analyser les interactions numériques et d'offrir un engagement comparable à l'intelligence et aux interactions humaines, mais à une échelle beaucoup plus grande.

Selon IBM, l’avènement des technologies IA accentue l’importance de la transformation numérique, en ayant le potentiel de remodeler le secteur et de rebattre les cartes de la concurrence.

D'après BPI France l’IA permet aux institutions bancaires de rivaliser avec les fintechs et d’innover continuellement pour rester compétitives. Elle augmente l’efficacité opérationnelle en automatisant les tâches répétitives et en optimisant les processus. L’expérience client est améliorée grâce aux chatbots, la personnalisation des services.

Quant aux compagnies d’assurance, l’IA est tout d'abord un outil pour évaluer et analyser, en amont, les risques qu’elles souscrivent. Et si le potentiel du marché de l’IA dans l’assurance est immense, de nombreuses entreprises rencontrent des difficultés à accélérer son déploiement à grande échelle : les freins principaux sont liés à des préoccupations autour de la sécurité des données, de la conformité aux réglementations locales, et de l’éthique dans l’utilisation des algorithmes.

L'univers des nouveaux acteurs de l'assurance est déjà plutôt encombré !

Un aspect commun à la banque et à l'assurance sont également les concepts de connaissance fine de la clientèle (KYC = Know your customer), d'intégration des clients ou encore de lutte contre le blanchiment de capitaux et le financement du terrorisme (LCB-FT), où l'IA apporte des changements considérables, sous réserve d'un entraînement correct des systèmes et d'une formation du personnel adaptée.

Enfin, qui dit bancassurance dit aussi finance ! [Début]

*

6. L'intelligence artificielle et la finance

Dans ses recommandations pour une utilisation responsable de l’intelligence artificielle en finance, l'Autorité des Marchés Financiers du Canada identifie dès 2021 quatre grandes fonctions de l’IA dans ce domaine :

  1. L’évaluation, pour le pointage de crédit des consommateurs par , ou la mesure de l’empreinte ESG d’un investissement.
  2. L’incitation, pour diminuer les risques comportementaux et affiner la tarification des produits d’assurance.
  3. L’optimisation, pour la construction de portefeuille ou l’amélioration des flux du travail.
  4. Le conseil et l’information, pour le service à la clientèle personnalisé.

Mais la finance, c'est également la spéculation, le trading (notamment haute fréquence), les cryptos, etc. Selon le FMI (voir chapitre 3)l’IA pourrait provoquer d’importants bouleversements dans la structure des marchés sous l’effet d’une utilisation plus répandue et plus puissante de la négociation algorithmique ainsi que de nouvelles stratégies de trading et d’investissement

Points positifs :

  • Réduction (et meilleure gestion) des risques pour la stabilité financière 
  • Augmentation de la liquidité des marchés 
  • Amélioration de la surveillance des marchés par les autorités de réglementation et par les acteurs de marché

Points négatifs :

  • Apparition de nouveaux risques 
  • Accélération des opérations et augmentation de la volatilité en période de tension
  • Opacité et difficultés majeures en matière de surveillance des institutions financières non bancaires
  • Accentuation des risques opérationnels en raison de la dépendance vis-à-vis d’une poignée de grands prestataires tiers en services d’IA
  • Aggravation des cyber-risques et des risques de manipulation des cours de marchés

Quant aux dispositifs réglementaires existants, ils apportent une protection contre bon nombre de ces risques, mais l’avenir pourrait donner lieu à de nouvelles évolutions qui n’avaient pas été anticipées. Conditionnel !

Côté cryptos, le secteur est en pleine effervescence, et l'avertissement est toujours valable : la négociation de cryptomonnaies comporte un niveau de risque élevé, et peut ne pas convenir à tous. Il est recommandé de pleinement s’informer des risques associés, et de n’investir que des sommes que l'on peut se permettre de perdre... [Début]
*

7. L'intelligence artificielle et l'immobilier

Vous connaissiez les acteurs Fintech, Assurtech, EdTech et autres BioTech ou FoodTech, et bien voici venus ceux de la Proptech : contraction des mots anglais Property (biens immobiliers) et Technology (technologie). Cela englobe un large éventail de technologies, allant des plateformes en ligne pour la recherche de biens immobiliers et la gestion immobilière aux solutions basées sur l’IA pour l’évaluation des biens, en passant par les outils de réalité virtuelle pour la visite de propriétés à distance.

Exemple immédiat d'impact sur l'emploi : une agence de Singapour lance un service d'intelligence artificielle qui remplace les agents immobiliers traditionnels, offrant des services à moindre coût et simplifiant la recherche de logement. 

Mais là encore, ce n'est que le sommet de la partie émergée de l'iceberg ! Selon Les Échosen partenariat avec l'agence d'architecture PCA-STREAM et le groupe d'ingénierie Artelia, le gestionnaire de patrimoine de Groupama a lancé la chaire Ville métabolisme, inaugurée le 5 février 2024 à l'Université PSL (Paris Sciences & Lettres), autour de six axes de recherche fondamentale :

  1. La ville comme système vivant, approche analogique
  2. Étudier l’évolution des villes et la coexistence de strates
  3. Maintenir en vie, maintenir en état de fonctionnement
  4. Évaluer la « bonne santé » des villes et la qualité de vie des habitants
  5. Normes et gouvernance : approches réflexives
  6. La recherche-création et l’exploration du champ des possibles

« Chacun des six axes de recherche interdisciplinaires formulera sa propre réflexion sur l'IA afin de recueillir de nouvelles données et d'enrichir ses connaissances sur la ville et son environnement », annonce Étienne Riot, directeur de la recherche appliquée et de l'innovation chez PCA-STREAM. L'avenir de l'IA se jouera, aussi, sur les terrains politique et social.

Conclusion

L’intelligence artificielle marque un tournant décisif pour le secteur immobilier, en réinventant chaque étape du processus, de la recherche d’un bien à la finalisation des transactions. Plus qu’un simple outil d’optimisation, elle devient un moteur d’innovation qui façonne un marché plus agile, plus transparent et plus accessible. L’intelligence artificielle n’est plus une simple tendance, mais une révolution en marche qui redéfinit les standards du marché[Début]

*

8. L'intelligence artificielle et le commerce

L'intelligence artificielle transforme de nombreux secteurs (pour ne pas dire tous), et le commerce ne fait pas exception : de la personnalisation des expériences client à l’optimisation de la chaîne d’approvisionnement, l’IA redéfinit la manière dont les entreprises opèrent et interagissent avec leurs clients. 

De la vente au détail au commerce international, du parcours client au e-commerce, etc., les évolutions sont profondes, les boutiques en ligne, disponibles 24/7/365 (souvent dans les principales langues), bénéficient de l'apport des outils IA, outre le contenu généré automatiquement :

  • Moteurs de recommandations
  • Outils de tarification dynamique
  • Chatbots pour le service client
  • Outils de segmentation de la clientèle
  • Systèmes logistiques intelligents
  • Prévision des ventes et de la demande
  • Optimisation de la recherche vocale
  • Recherche visuelle
  • Identification des fausses évaluations
  • Détection et prévention des fraudes
  • Prise de décision en temps réel
  • Efficacité marketing accrue
  • Sécurité renforcée
  • Efficacité opérationnelle
  • Rentabilité
  • Etc. etc.

Mais cela s'applique aussi au commerce physique, notamment avec le smart phygital (terme désignant le phénomène par lequel les points de vente physique intègrent les techniques et ressources numériques afin d’assurer le développement de leur activité). 

Le rythme exponentiel de cette transformation du commerce par l’intelligence artificielle change la donne à tous les niveaux, en réduisant les coûts, en remodelant les échanges de services, en augmentant le commerce des marchandises et des services et en redéfinissant les avantages comparatifs des économies. Un bouleversement qui n'en est qu'à ses débuts... [Début]

*

9. L'intelligence artificielle et le droit

Comme les précédents acteurs, ceux de la LegalTech ont le vent en poupe, en rendant les services juridiques plus accessibles, plus efficaces et souvent moins coûteux. Pour autant, l'impact de l'intelligence artificielle sur le droit et les professions du droit va bien au-delà de la seule dématérialisation : dans certains tribunaux, par exemple, l’IA a été utilisée pour prédire le taux d’innocence des accusés. Les résultats ont été surprenants : les algorithmes d’apprentissage automatique étaient plus précis que les humains pour prédire qui était susceptible d’être innocent et méritait donc d’être libéré de prison avant le procès. 

Il est clair que les implications sont énormes, de même que les risques pour les droits fondamentaux !

Dans un billet publié en mars 2016, je m'intéressais au « nouveau maintenant » de nos professions, titre emprunté à un livre blanc de M. Bernard Lamon, intitulé Services juridiques : Innover pour survivre au « nouveau maintenant », dans lequel l'auteur considérait que le modèle économique des cabinets d’avocats, déjà concurrencés dans leurs activités de conseil par les experts-comptables, les experts des banques d’affaires et des fonds d’investissement, était attaqué au cœur : ils subissent « une très forte tension sur les chiffres d’affaires avec une remise en cause très sévère de la facturation au taux horaire », le taux horaire laissant très progressivement la place à une facturation au forfait, à la tâche accomplie. 

Or cela était bien avant le déploiement de l'intelligence artificielle ! Aujourd'hui, en revanche, la technologie tend à devancer l’humain en termes de compréhension et de capacitésle pouvoir tend à glisser entre les mains des algorithmes, et les idéaux démocratiques et d’égalité devant la loi risquent d’être remis en cause.

L'auteur de l'article (publié il y a un an), Bruno Ancel, avocat au barreau de Paris, nous signalait également que la législation sur l'intelligence artificielle adoptée le mercredi 13 mars 2024 par le Parlement européen, englobait aussi la justice pénale, en offrant un cadre juridique uniforme se distinguant nettement des approches américaine et chinoise, ce qu'il définit comme une incitation à la responsabilité algorithmique !

Cela étant, à qui est imputable une responsabilité quelconque en matière d'intelligence artificielle, ça reste à voir... [Début]

*

10. L'intelligence artificielle et le travail

J'ai lu cette semaine l'annonce de la startup Mechanize, axée sur le développement d'environnements de travail virtuels qui permettront l'automatisation complète des secteurs économiques, et destinée à remplacer, PARTOUT, l'ensemble des travailleurs humains !? Le créateur de la société a même calculé le potentiel incommensurable de "son" marché : au total, les travailleurs américains gagnent environ 18 000 milliards de dollars par an. À l’échelle mondiale, le chiffre, trois fois supérieur, est d'environ 60 000 milliards de dollars par an » ! 

C'est pas compliqué : en divisant ça par 8 milliards de terriens, on obtient un revenu de 7500 $ par an (20,5 $/jour) et par personne, nouveau-nés et vieillards compris, dimanches et jours fériés compris. Bon, cela dit, huit milliards de bipèdes en passe de se tourner les pouces, je vous laisse conclure par vous-mêmes ! [Début]


P.S. Si vous avez des conseils ou des demandes pour les deux prochains billets, je suis preneur :)

jeudi 17 avril 2025

Intelligence artificielle, ordinateurs et traduction automatique

page IA

L'intelligence artificielle est légèrement plus âgée que moi, et nous retrouvons pour la première fois le terme anglais dans le document préparatoire à la conférence de Dartmouth :

« Nous proposons d'organiser un séminaire de deux mois sur l'intelligence artificielle, impliquant dix personnes, durant l'été 1956 au Dartmouth College de Hanover, dans le New Hampshire. Le postulat de l'étude se base sur le principe que l'on peut décrire avec un un tel niveau de précision chaque aspect de l'apprentissage ou toute autre caractéristique de l'intelligence qu'une machine pourra le simuler. Nous tenterons de trouver comment les machines pourront utiliser le langage, formuler des abstractions et des concepts, résoudre des problèmes aujourd'hui réservés aux humains et s'améliorer. »

Tous les problèmes sont déjà posés ! Or cette déclaration date du 31 août 1955 ! Soixante-dix ans plus tard, je dirais que c'est chose faite, non ? Puisque désormais les machines ont une telle capacité de s'auto-améliorer qu'elles sont à deux doigts de s'affranchir de nous...

Quant au traitement du langage, et donc des langues, il a évolué en parallèle à celui de l'IA et des ordinateurs. Dès la moitié des années 40 apparaissent les premiers calculateurs électroniques à grande échelle, le Colossus britannique (1944) et l'ENIAC américain (1945). Or ces "ordinateurs" ante litteram n'avaient aucun programme en mémoire. Ainsi, pour configurer une nouvelle tâche, il fallait modifier une partie du câblage de la machine, réacheminer les câbles à la main et régler les commutateurs. 

C'est Alan Turing qui conçut le principe de base de l'ordinateur moderne : contrôler les opérations de la machine au moyen d'un programme d'instructions codées, stockées dans la mémoire de l'ordinateur, en contribuant à la construction des premiers ordinateurs programmables au monde : les Colossus Mark 1 et Mark 2. Il fut aussi l’un des principaux acteurs du déchiffrement d’Enigma durant la seconde Guerre mondiale et, last but not least, l'un des pionniers de l'Intelligence artificielle !

*

Côté traitement des langues, après l’apparition des premiers ordinateurs, il faudra attendre 1946 et la rencontre entre Andrew Booth et Warren Weaver, directeur de la Fondation Rockfeller, et, surtout, le 4 mars 1947, avec la lettre de ce dernier à Norbert Wiener évoquant la possibilité d’utiliser les nouveaux ordinateurs pour la traduction des langues naturelles :
... Je ne sais rien d'officiel sur les nouvelles méthodes de cryptographie, puissantes et mécanisées ...  des méthodes qui fonctionnent, j'imagine, même sans connaître la langue codée –, donc, naturellement, je me demande si le problème de la traduction pourrait être traité comme un problème de cryptographie. En lisant un article en russe, je pense : « En réalité, c'est écrit en anglais mais codé avec des symboles étranges. Je n'ai plus qu'à procéder au décodage. » 
Norbert Wiener lui répond, pour le moins sceptique, le 30 avril 1947 :
Franchement, concernant le problème de la traduction mécanique, je crains que les frontières entre les mots dans les différentes langues ne soient trop floues et les connotations émotionnelles et internationales trop étendues pour qu'un projet de traduction quasi-mécanique soit prometteur. (...) À l'heure actuelle, au-delà de la conception de dispositifs de lecture photoélectrique pour les aveugles, la mécanisation du langage semble très prématurée
Warren Weaver formalisera son intuition deux ans plus tard, le 15 juillet 1949, avec la publication d’un mémorandum simplement intitulé : Translation, publié in Machine translation of languages: fourteen essays [ed. by William N. Locke and A. Donald Booth (Technology Press of the Massachusetts Institute of Technology, Cambridge, Mass., and John Wiley & Sons, Inc., New York, 1955), p.15-23], qui commence ainsi :
Inutile de souligner l'évidence, à savoir que la multiplicité des langues entrave les échanges culturels entre les peuples de la planète et constitue un sérieux obstacle à la compréhension internationale. Le présent mémorandum, en partant de la validité et de l'importance de ce fait, contient quelques commentaires et suggestions sur la possibilité de contribuer, au moins en partie, à la solution du problème mondial de la traduction grâce à l'utilisation d'ordinateurs électroniques de grande capacité, flexibilité et rapidité.
Or le 31 mai 1949 était sortie une dépêche aux États-Unis (notamment sur le New York Times et le New York Herald Tribune), qui sera reprise également en Italie, annonçant la construction par le Bureau of Standards, à l'Université de Californie (Los Angeles), de l'ordinateur SWAC (Standards Western Automatic Computer), un "cerveau électrique" capable de traduire une langue étrangère... Vingt mathématiciens et techniciens travaillent sous la direction du Dr Harry Huskey, qui a déclaré :
« Pour réussir à traduire les langues, celles-ci doivent être saisies à la machine. Le service des recherches navales a déjà débloqué une somme d'argent considérable pour construire le cerveau. » 
M. Huskey est certain du bon fonctionnement de sa merveilleuse machine, qui produira une traduction littérale, mot à mot, et il incombera ensuite à l'utilisateur d’interpréter le sens de la traduction. Le cerveau électrique sera testé au plus tard d’ici un an...

Le hasard (!?) voulut que vingt jours plus tôt, M. Federico Pucci, un salernitain, avait adressé un courrier recommandé au président américain, Haary S. Truman, dans l'espoir de recevoir un appui financier pour la construction de ses électro-traducteurs.

M. Pucci, troublé d'apprendre cette nouvelle venant des États-Unis, décida d'envoyer le 10 juillet 1949 (soit seulement 5 jours avant la publication du mémorandum de Weaver !), son premier courrier au Conseil National des Recherches italien intitulé : « Cerveau électrique nord-américain pour la traduction des langues étrangères et traducteur électromécanique italien participant à l'exposition-concours d’inventions qui se tiendra du 16 au 29 septembre 1949 à Paris », dans le seul but de revendiquer l'antériorité de son invention...

Avant l’ordinateur, il n'était question que de « traduction mécanique », voire de « machine à traduire », un distinguo qui demeure dans l’appellation anglaise de la discipline : « Machine Translation », ou MT en abrégé. Après l’ordinateur, parfois qualifié de « cerveau électrique », ou « cerveau électronique », les premiers « logiciels » de traduction automatique furent des systèmes dits « à base de règles » (RBMT, ou Rule-Based Machine Translation), dont la première démonstration de l’histoire est connue dans ses moindres détails : date, lieu, équipe, langues, déroulement, etc.

En fait, une anecdote plus qu’une véritable démonstration scientifique : nous sommes le 7 janvier 1954, à New York, au siège d’IBM, l’équipe est une collaboration entre la Georgetown University (M. Paul Garvin pour la partie linguistique) et IBM (M. Peter Sheridan pour la partie programmation), la paire de langues est le russe et l’anglais, un lexique de 250 mots choisis avec soin, quelques dizaines de phrases, 6 règles !

Le lendemain, IBM annonce dans un communiqué de presse :
En quelques secondes, l'ordinateur géant a transformé ces phrases en un anglais facilement lisible. 
Ce même communiqué mentionnait cette phrase du professeur Leon Dostert, de l'Université de Georgetown, selon lequel, en l’espace de quelques années la traduction automatique aurait pu devenir réalité :
Dans cinq ans peut-être, voire dans trois, la conversion de sens entre différentes langues par processus électronique dans d'importants domaines fonctionnels pourrait bien être un fait accompli. 
Le ton optimiste de cette déclaration eut surtout pour effet d'inciter le gouvernement américain à mettre à disposition d’importantes sommes pour la recherche. De ce point de vue, l'objectif fut atteint ! Pour autant, dans la réalité, l'expérience « Georgetown University – IBM » fut suivie d’une décennie que tous les spécialistes de l'histoire de la TA s'accordent à définir comme « la grande désillusion ».

Sans rien enlever à Federico Pucci, créateur de la première RBMT documentée de l'histoire, inventée à partir de rien, qui présenta initialement son système en public en décembre 1929, soit 20 ans avant le mémorandum de Warren Weaver sur la traduction automatique, et 25 ans avant l'anecdote IBM - Georgetown University...

Sources :
*

En clair, sur les 70 dernières années, nous avons vu de front l'essor inarrêtable et conjugué du traitement automatique des langues, de la puissance de calcul des ordinateurs et de l'explosion de l'intelligence artificielle, mais nous atteignons aujourd'hui un point de bascule. Où le binôme suprématie quantique - superintelligence artificielle reléguera la traduction automatique sur les étalages des vide-greniers de l'histoire (not a failure anymore...) !

Pour faire le point de la situation, rendez-vous en 2029 (dans 4 ans !), date du centenaire de l'invention par Federico Pucci de sa méthode de traduction automatique à base de règles...


mercredi 16 avril 2025

Singularité de l'IA et superintelligence

page IA

Dans Obsolescence du contenu, je raconte mon premier contact avec Internet, il y a 30 ans : 

Une fois installé Internet, ma première recherche fut "glossary", pour obtenir, en moins d'une seconde, 300 000 (trois cent mille !) résultats. C'était tellement énorme que j'ai dû me déconnecter pour réfléchir...

Il y a dans les paramètres ci-dessus (300 000 résultats en moins d'une seconde) deux des éléments principaux de l'IA : la masse (de données) et la vitesse. Tiens, ça me rappelle une vieille formule : IA = mc², où l'énergie serait remplacée par la singularité de l'IA...

Donc, il en va très exactement de même avec l'arrivée proche de la superintelligence artificielle, j'ai absolument besoin de me donner le temps de la réflexion !

Car s'il y a quelqu'un qui est intimement convaincu que cette superintelligence ne va pas rester encore très longtemps hypothétique, c'est bien Eric Schmidt, CEO de Google pendant une dizaine d'années (avant de devenir président exécutif du conseil d'administration de la société), qui a donné une interview extraordinaire il y a moins d'une semaine !

La voici dans son intégralité :

Selon son calendrier :

  • D'ici un an (2026), l'IA remplacera de nombreux programmeurs et mathématiciens parmi les plus diplômés.

(Lui s'intéresse aux programmeurs et aux matheux, puisqu'ils sont, d'après ses mots, à la base de tout notre monde numérique, mais nous avons vu que ça touche TOUS les secteurs...)

Il s'agit d'une boucle de rétroaction où une intelligence artificielle (IA) est capable de se perfectionner continuellement. Explications ici.

D'après les grands acteurs de l'IA, à l'heure actuelle, 10 à 20 % du code développé dans leurs programmes de recherche est généré directement par l'ordinateur. À terme, les ordinateurs n'auront plus besoin de nous écouter (voire plus besoin de nous tout court, ou dans tous les cas de moins en moins !)...

  • D'ici 3 à 5 ans (2028-2030), émergence de l'intelligence artificielle générale (AGI, celle qui mettra dans la poche de chacun de nous l'équivalent du plus intelligent des experts humains pour chaque problème !)

D'après Raphaël Gaillard (L'homme augmenté : Futurs de nos cerveaux - Grasset, 2024), nous utiliserons l’IA comme nous utilisons nos smartphones, partout et tout le temps, comme un appendice de nous-même, voire en l’incorporant. Surtout, selon Schmidt, ce sera l'étape à partir de laquelle les fondations auront été jetées, fixées, et à partir de là rien ni personne n'arrêtera plus l'IA... Toutefois, après cette phase, les choses deviennent encore plus intéressantes !

  • Dans 6 ans (2031), la superintelligence artificielle (ASI : théorie selon laquelle les ordinateurs deviennent plus intelligents que l'ensemble de l'humanité) devient réalité...

Selon Schmidt, les gens ne comprennent pas ce qui se passera avec un tel niveau d'intelligence, qui plus est largement gratuite. Notre société n'appréhende pas cette évolution. Il n'existe aucun langage, aucune langue (en anglais language signifie aussi bien langue que langage) pour concevoir ni expliciter ce qu'il en sera avec l'avènement de la superintelligence artificielle.

*

« Ce que l'on conçoit bien s'énonce clairement, et les mots pour le dire arrivent aisément », disait Nicolas Boileau, mais que faire lorsque les mots ou la langue sont incapables de saisir une réalité qui n'existe pas encore et que l'on ne sait pas même imaginer ?

Cette situation me fait penser à Paul Virilio, un des premiers théoriciens de la « vitesse », qui disait nous n'avons pas de philosophie pour penser à une telle accélération du réel !

Or face au bouleversement de l'IA, il y a bien des tentatives d'élaborer une philosophie de l'intelligence artificielle, mais depuis la moitié des années 50 les changements sont d'une telle portée et d'une telle rapidité que le cerveau humain est incapable de suivre cette explosion de l'intelligence, qui nous amènera inéluctablement à redéfinir les concepts mêmes d’intelligence, d’autonomie et d’existence humaine, et nous obligera à repenser notre place dans l’univers : sommes-nous prêts à coexister avec une entité qui nous dépasse ?

En d'autres occasions, Schmidt s'est déjà prononcé pour accompagner une telle transition d’une réflexion éthique profonde. Simple vœu pieux !

*

Ce déploiement tous azimuts de l'IA est également favorisé par la montée en gamme d'une puissance de calcul phénoménale. Citons juste l'exemple de Cerebras Systems et de son Wafer Scale Engine, dont la version 3 intègre 4 trillions de transistors et 900 000 cœurs d'IA, offrant des vitesses d'inférence jusqu'à 70 fois plus rapides que les processeurs traditionnels. Les chiffres sont impressionnants :


Déjà, il y a un an, Cerebras et G42 déployaient Condor Galaxy 3, un supercalculateur d'IA de 8 exaFLOPs avec 58 millions de cœurs optimisés par l'IA ! Je vous laisse calculer...

Et que se passera-t-il lorsque la suprématie quantique (la quatrième révolution civilisationnelle ?) deviendra à son tour réalité ?

Eric Schmidt a raison : c'est inconcevable...

*

À la question « Les machines peuvent-elles penser ? », Alan Turing répondait toujours oui !

Dans son livre intitulé Les innovateurs (octobre 2015), Walter Isaacson nous dit qu'en réfléchissant au développement des calculateurs à programme enregistré, Alan Turing s’intéressa à l’affirmation émise par Ada Lovelace un siècle plus tôt dans sa note finale sur la machine analytique de Babbage, à savoir que les machines ne pouvaient pas vraiment penser

Dans un article de 1950, il consacra une section à « l’objection de lady Lovelace » :

« Au lieu d’essayer de produire un programme qui simule l’esprit adulte, pourquoi ne pas essayer plutôt d’en produire un qui simule l’esprit de l’enfant ? Si celui-ci était alors soumis à une pédagogie appropriée, on obtiendrait le cerveau adulte. »

Donc, si une machine pouvait elle-même modifier son programme sur la base des informations qu’elle traitait, ne serait-ce pas là une forme d’apprentissage ? Cela pourrait-il conduire à l’intelligence artificielle ?

C'est ainsi qu'il conçut « le jeu de l’imitation » (ou test de Turing) : un interrogateur transmet par écrit des questions à un humain et à une machine situés dans une autre pièce et essaie de déterminer à partir de leurs réponses lequel des deux est l’humain.

Or aujourd'hui, non seulement évoquer l'idée de machines pensantes est un truisme, mais il commence à être question de machines conscientes... 

*

Cela me suggère une dernière question pour conclure ce billet :

« Les machines peuvent-elles croire ? »

Je laisse à chacun(e) le soin d'apporter sa propre réponse. La mienne est non.

dimanche 13 avril 2025

La troisième révolution civilisationnelle : l'intelligence artificielle (IA)

page IA

La quatrième révolution civilisationnelle : l'informatique quantique (IQ)

*

Les deux premières furent l'Imprimerie et Internet, l'Intelligence artificielle sera (est) la IIIe révolution civilisationnelle. La différence étant qu'il aura fallu un peu plus d'un demi-millénaire entre la première et la deuxième, contre une cinquantaine d'années entre la seconde et la troisième : une évolution 10 fois plus rapide ! 

Je n'ose penser quelle sera la quatrième, et quand... L'informatique quantique ?

Dans révolution il y a évolution. Toutefois cette dernière peut être positive ou négative. Par exemple, lorsque l'on pense « révolution industrielle », on peut être saisi par la crainte de la « destruction créatrice » d'emplois, cette force motrice de la croissance selon Joseph Schumpeter... Des métiers disparaissent, de nouvelles professions apparaissent, au mieux se côtoient pendant quelque temps. Dans cette jungle, il incombe à chacun(e) de trouver sa propre réponse. 

L'idée de ce billet m'est venue en constatant le déploiement de plus en plus omniprésent des IA traductionnelles, dont je peux ressentir chaque jour les effets directs sur mon activité désormais ultra-quarantenaire...

Pour commencer la préparation de ce billet, j'ai donc posé à 4 Intelligences artificielles (IA pour les intimes) - ChatGPT, Mistral.ai, Deepseek et Gemini - la question suivante : Quelles sont les plus importantes révolutions industrielles ?

Je vous ai concocté les résultats sous forme de tableau synoptique, selon le schéma suivant :

  • Introduction
  • 1e révolution industrielle (Innovations/Impact)
  • 2e révolution industrielle (Innovations/Impact)
  • 3e révolution industrielle (Innovations/Impact)
  • 4e révolution industrielle (Innovations/Impact)
  • Conclusion

En cliquant sur les images vous avez un accès direct au PDF correspondant.

Introduction








Conclusion

En associant les résultats complémentaires des 4 IA, on obtient un tableau intéressant. Mais surligné en jaune, vous constaterez que Deepseek est la seule à évoquer dans sa conclusion une cinquième révolution industrielle.

*

Ce devait être le titre de ce billet, et puis j'ai pensé que non, ça ne collait pas ! Comme son nom l'indique, la cinquième révolution industrielle se limite davantage à l'Industrie 5.0, dont le but, en bref, ne consistera plus uniquement à automatiser et optimiser les processus, mais à améliorer la vie des travailleurs grâce à la technologie plutôt que de les remplacer par des robots.

*

C'est là où le bât blesse avec l'intelligence artificielle puisque, selon moi, dans de nombreux secteurs, elle vise purement et simplement à prendre la place des ressources humaines, les digital workers n'ayant pas d'état d'âme. 

Car si la deuxième révolution ne s'est pas substituée à la première, si l'écran n'a pas tué l'écrit (de même que ceci n'a pas tué cela...), au grand bonheur des obsédés textuels, en remplaçant juste le texte classique par l'hypertexte, l'antique palimpseste par le moderne palimptexte, le passage de la deuxième à la troisième révolution civilisationnelle, 10 fois plus rapide que le premier, ressemble davantage à un choc des civilisations et me semble beaucoup plus préoccupant, bien moins "empathique".

Plus aucun domaine n'est à l'abri, ce que démontrent différentes études prospectives, des armées à l'éducation, de l'enseignement à la logistique et aux transports, du droit à la banque en passant par la médecine, etc., pour n'en citer que quelques-uns, et de nombreux emplois, y compris qualifiés, devront soit se mettre à niveau, soit disparaître...

Depuis plusieurs années la traduction / l'interprétation est déjà confrontée à cette problématique, accompagnée d'une baisse généralisée des services (et des salaires) que je nomme industrialisation du good enough... J'y reviendrai plus loin.

*

Dans sa newsletter du 11 avril 2025, Tariq Krim (éditions Cybernetica), que j'ai rencontré il y a fort longtemps, publie un article intitulé « Quand le logiciel cessera d’obéir », où il nous propose une vision élargie de l'intelligence artificielle et de la rupture actuelle, en termes de conception architecturale des systèmes d’IA, notamment avec MCP (une brèche dans le code de programmation) et le protocole agent-à-agent (A2A) de Google. Tout ceci présage d'un fonctionnement de l'IA en réseau de systèmes intelligents dialoguant directement sans passer par nous : les machines prennent le contrôle, les robots prennent le pouvoir ! Sans parler des questions d'éthique...

*

Le monde des agents est foisonnant ! Parmi cette myriade, pour ne prendre qu'un exemple, celui de MindStudio offre des agents pour la recherche, l'analyse de contenu (voir en P.S.), la création (podcasts, billets, articles, vidéos, etc.), la génération d'images, pour les étudiants, les financiers, les développeurs, etc., il suffit d'installer l'extension sur Chrome et à la seconde tous ces agents sont à votre disposition :


Et si vous n'y trouvez pas votre bonheur (une centaine d'agents libres d'utilisation), vous pouvez construire le vôtre (build), question de minutes ! En version gratuite vous avez jusqu'à 10000 requêtes (runs) par mois, au-delà (jusqu'à 100000) c'est 0,002$/run, vous avez accès à une cinquantaine de modèles IA et à des services tiers, etc. etc.

Donc, sans compter les outils de création de sites, de logiciels via prompt (le vibe coding), dont le lancement par Google d'un nouvel outil impressionnant (firebase.io) ou les perspectives d'autres acteurs de premier plan, vous comprenez bien que lorsque Tariq Krim évoque la possibilité (déjà réalité) que tout ce joli monde fonctionne en réseau de systèmes intelligents dialoguant directement sans passer par nous, c'est instantané et exponentiel, et les perspectives réelles vont bien au-delà de notre compréhension simplement humaine.

Eric Schmidt lui-même confirme cet état de fait : « Les ordinateurs sont auto-apprenants. Ils n'ont plus besoin de nous écouter »...

À mon niveau de traducteur lambda, qu'est-ce que tout cela peut bien signifier ?

Je m'interroge depuis une dizaine d'années déjà sur l'avenir du travail pour les métiers libéraux, et sur le mien in primis, au point d'avoir écrit une moyenne d'un billet par an pendant 8 ans sur ces questions :

  1. Plaidoyer pour un marketing de la traduction
  2. SOLO², branding & marketing à l’intention des auto-entrepreneurs et des professionnels exerçant en profession libérale
  3. Le « nouveau maintenant » de nos professions
  4. Transition université - marché du travail
  5. Conseils aux jeunes qui réfléchissent à leur carrière future
  6. De l'évolution du métier de traducteur-interprète et de la nécessité de s'adapter
  7. La création de son propre emploi
  8. Télétravail : sommes-nous prêts ?

J'ai expliqué dans un récent billet que la profession est en plein bouleversement, où le traducteur devient post-éditeur de traduction automatique (ce qui n'est plus le même métier), autrement dit l'inspecteur des travaux "finis"... Si l'on passe sous silence le fait que certains (Jaap Van Der Meer) rêvent d'automatiser aussi la post-édition, toute la problématique se concentre donc sur la finition !

*

Lorsque j'avais mon bureau de traduction à Rome, je recevais des étudiants français en stage provenant de différentes universités (Grenoble, Rennes 2), où mon rôle consistait, dans une ultime opération, à contrôler et parfaire le texte à livrer. Une traduction réalisée à 95% n'est pas un produit fini : il manque 5%. On ne dirait pas, mais 5% de 1000 mots ce sont 50 mots incorrects. C'est énorme et ça fait toute la différence : la finition qualifie le traducteur de métier.

Or une IA traductionnelle n'est ni plus ni moins qu'un stagiaire : sans vérification et correction finales, le client n'en aura jamais pour son argent (if you pay peanuts you get monkeys), quand bien même il aura payé très peu (en tout cas bien moins qu'il y a quelques années), car là est le paradoxe de la quadrature du triangle : entre DÉLAIS, COÛTS et QUALITÉ, prenez-en deux et oubliez le troisième ! Désormais, un adage d'autrefois…

L'élément nouveau qu'introduit l'IA est que deux des trois paramètres sont (plutôt brillamment) résolus ! Les DÉLAIS sont immédiats, et les COÛTS éliminés, ou peu s'en faut. Y compris sur d'énormes quantités. Aucun traducteur humain n'est compétitif face à une telle réalité. Ne reste plus que la QUALITÉ, dont le degré ultime se définit au moment de la finition. À l'heure actuelle, sans cette réception - au sens technique - de la traductrice ou du traducteur en charge du « contrôle qualité », aucun agent intelligent (intellagent ?) artificiel n'est encore en mesure d'assurer seul ce niveau de finition. L'IA peut s'en rapprocher pour certains couples de langues et domaines (les plus documentés), mais ça reste très compliqué pour d'autres (IT > FR en juridique, par exemple), et bien que ça soit probablement à sa portée, cela demandera encore pas mal de temps. Nous sommes donc en sursis...

*

Pour conclure, je terminais un précédent billet par cette citation :

Pourtant, une conséquence bien concrète de tout ce chambardement : après 40 ans de métier, j'ai de moins en moins de travail...
De quoi se demander si traducteur-interprète est un métier d'avenir ? 
J'en doute !

Mon sentiment est qu'au fil du temps l'avènement de l'IA dépasse et rend vains tous mes questionnements, les uns après les autres, peut-être le temps de la réflexion est-il venu...


P.S. À titre d'exemple, j'ai fait tourner l'agent Create Study Guide sur mon billet (rédigé en français) intitulé Branding & Marketing pour Traducteurs & Interprètes, en quelques secondes, voici le résultat (en anglais !) (il suffit de cliquer sur l'image) :