mardi 15 juillet 2025

IA : le déclin des moteurs de recherche

page IA

IA inside

En 2010, dans un billet intitulé « Les chercheurs du Web de 3e génération », l'ami Laurent, un vieux de la vieille du SEO, avait demandé à plusieurs blogueurs (dont moi), de nous exprimer sur l'avenir du search en nous basant sur l'étude “Search of the future” publiée en décembre 2009 par Directpanel, sous-titrée : le moteur de recherche idéal vu par les internautes.

Je citais en préambule une série de trois billets, inspirés par Gord Hotchkiss, respectivement intitulés :
  1. Search Engine Results 2010
  2. Les moteurs de recherche innovent, pourquoi les marketers Web n’en font-ils pas autant ?
  3. Moteurs de recherche 2010
Dans ce dernier, je terminais ainsi la série :
La conclusion de ce qui précède est qu'il faut donc penser en termes de multipositionnement, non plus simplement sur le texte mais sur tous les éléments du palimptexte, une réalité qui n'a jamais existé jusqu'à présent, et dont nous avons encore bien des difficultés à appréhender toutes les implications pour notre présence Internet...

Ce n'est plus de simple écriture Web qu'il s'agit, mais plutôt d'ingénierie "scripturale" (linguistique, sémantique, technique, etc.). Interactive, et donc réactive. Adaptative. Selon les buts, les retours d'information, les événements, les destinataires, etc. Sans parler de localisation...

(...) Pour conclure, je vous laisse avec cette question : où sera positionné votre site sur la page de résultats de Google en 2010 (ce n'est qu'une projection, mais on comparera dans trois ans...) ?
*

Quinze ans plus tard, la question n'est plus vraiment d'actualité ! Car il est clair que les moteurs de recherche ne sont plus aussi pertinents qu'avant, à l'heure où le bon vieux SEO (Search Engine Optimization) laisse progressivement la place au GEO (Generative Engine Optimization) :
L'optimisation pour les moteurs conversationnels inclut le prompt engineering (créer des contenus qui anticipent les prompts des utilisateurs) ou encore la production de contenus difficiles à reproduire par l’IA, autrement dit des contenus qui se démarquent par leur rareté, leur profondeur humaine ou leur ancrage dans le réel, de sorte que les modèles d’intelligence artificielle ne peuvent pas les générer ou les imiter facilement.

En 2025, la nouvelle donne ne consiste plus seulement à séduire les moteurs de recherche classiques mais plutôt à rendre le contenu d'un blog ou d'un site accessible, compréhensible et utile pour les robots conversationnels (chatbots IA, assistants, modèles RAG, moteurs IA natifs, etc.).

Désormais, une grande partie du trafic Web passe par les agents conversationnels, qui ne fonctionnent plus comme Google : ils recherchent de la pertinence contextuelle, n’affichent pas de listes de liens, utilisent des modèles sémantiques, souvent basés sur la RAG (Retrieval-Augmented Generation).

En permettant d'accéder à des données récentes, cette technique de pointe fournit des réponses plus pertinentes, une capacité que de nombreux LLM pré-entraînés n'ont pas. Imaginez que vous gérez un géant de la vente en ligne comme Amazon. Vos clients posent fréquemment des questions sur les produits. Avec un inventaire en constante évolution, il est totalement impraticable de ré-entraîner un chatbot en permanence. C’est là que la génération augmentée par la récupération intervient, en récupérant rapidement les informations depuis votre base de données ou de connaissances pour générer ensuite une réponse à partir de ces informations. Cette approche réduit non seulement les coûts d’entraînement, mais garantit également une adaptation fluide aux données dynamiques des entreprises modernes.

Lorsque je publiais Écrire pour le Web : quand vos lecteurs sont des moteurs…, il y a près de 20 ans, je n'imaginais pas qu'un jour les moteurs de recherche seraient devenus si vite obsolètes ! Aujourd'hui le bon titre serait Écrire pour le Web : quand vos lecteurs sont des IA !

En fait écrire un article IA-friendly signifie produire un contenu pensé pour être compris, utilisé, référencé ou synthétisé efficacement par une intelligence artificielle (qu’il s’agisse d’un moteur de recherche IA, d’un robot conversationnel ou d’un outil de résumé automatique). Cela implique des choix de forme, de structure et de fond qui maximisent la lisibilité par les humains et la pertinence pour les IA :

1. Contenu structuré et hiérarchisé

  • Utilisation claire de titres (H1, H2, H3)avec des mots-clés bien formulés.
  • Paragraphes courts, bien découpés.
  • Listes à puces, tableaux comparatifs, définitions.

2. Langage explicite et informatif

  • Éviter le flou, les phrases creuses ou trop abstraites.
  • Privilégier un style pédagogique.
  • Définir les termes clés dans l’article, même s’ils semblent évidents.

3. Ancrage contextuel et actualité

  • Mentionner des dates, tendances, faits récents.
  • Citer des sources ou outils reconnus (ex. : McKinsey, Perplexity, Statista, Gartner...).

4. Optimisation sémantique

  • Utiliser les cooccurrences naturelles autour du sujet (ex. pour "IA", employer aussi : modèle de langage, machine learning, automatisation, hallucination, etc.).
  • Employer le champ lexical attendu par les IA (enrichir sans "bourrage de mots-clés").

5. Inclure des formats digestes pour IA

  • TL;DR (résumé en début ou fin).
  • Q&R : sections sous forme de question-réponse.
  • Encadrés explicatifs ou citations de sources.

En résumé, un article IA-friendly est clair, structuré, riche en contexte, optimisé sémantiquement, et aligné avec les tendances de l’écosystème IA, dans le but d'être capté, synthétisé ou cité par des outils IA — ce qui améliore votre visibilité dans un monde où les lecteurs sont aussi des machines.

*

Comment en est-on arrivés là ? Parce que nous sommes passés du moteur de recherche au moteur de réponse : avant, les moteurs comme Google proposaient une liste de liens à explorer. A présent, grâce à l’IA générative, les utilisateurs reçoivent des réponses directes, synthétisées et contextualisées.

Cela génère moins de clics vers les sites Web, les utilisateurs restant dans l’interface de l’IA pour obtenir l’information qu'ils souhaitent. Une interface utilisateur qui évolue : au lieu de taper des mots-clés, on pose des questions complètes ou on engage un dialogue avec une IA, l'interaction devient conversationnelle.

Le SEO traditionnel, basé sur les mots-clés et le positionnement dans les SERP, est devenu moins central, d'où la nécessité d'optimiser le contenu pour l’IA, et plus seulement pour les moteurs classiques. Quant aux moteurs basés sur l’IA, ils peuvent adapter leurs réponses à l’historique, aux préférences ou au contexte de l’utilisateur, en fournissant des résultats plus subjectifs, contextuels et dynamiques, ce qui remet en cause l’idée de « classement universel » des résultats. Rappelez-vous les débuts de Yahoo!

*

En produisant des réponses synthétiques, les IA, qui citent parfois leurs sources, et parfois non, court-circuitent les sites sources. Cette désintermédiation du Web génère moins de trafic vers les sites Web classiques, menace le modèle économique des éditeurs de contenu (publicité, affiliation), et exige de repenser les stratégies de visibilité en ligne.

De nouveaux écosystèmes de recherche se créent, des alternatives à Google gagnent du terrain, comme Perplexity AI, You.com ou Brave Search (avec réponse IA intégrée), ou des assistants comme ChatGPT avec navigation web, Gemini, Copilot, etc. Désormais la recherche est multi-plateforme et multi-agent. Le “search” se déplace vers les applis, les robots conversationnels, les OS, voire les objets connectés.

Pour autant, ce nouveau panorama n'est pas exempt de risques : hallucinations (les réponses peuvent être fausses ou biaisées), opacité (la provenance de l’information devient floue), dépendance (il devient plus difficile de vérifier ou de diversifier ses sources), etc. Et tant que les outils d'IA n'améliorent pas la transparence et la citation des sources, c'est à l'utilisateur qu'il incombe d'adopter une posture plus critique.

En clair :

Avant (Web classique)Après (Recherche avec IA)
Liste de liensRéponse directe
Mots-clésLangage naturel
Résultat fixeRésultat dynamique
SEO centré sur GoogleOptimisation multi-agent
Clics vers les sitesInteraction dans l’IA


IA : l'ignorer ou s'en moquer ne la fera pas disparaître !

J'ai récemment rencontré deux réactions sur l'IA qui m'ont laissé particulièrement perplexe :

1. J'ai ouvert un fil de discussion sur la première place de marché en ligne dédiée aux traducteurs (plus d'1,5 million de membres), pour tester un peu la réactivité de la profession : très peu de réponses, et cette réaction, « chaque fois qu'on me parle de l'IA, je rigole... »

2. Je me suis permis de signaler à une traductrice de métier dont les positions me semblaient justes, mon dernier billet intitulé « AI Invasion in the Translation and Localization Market: a Seismic Shift for Freelancers, LSPs and End Clients ». Retour : « Je suis désolée, mais si je vois "co-écrit avec ChatGPT", je passe mon chemin. Pourquoi lire quelque chose qui n'a pas été écrit ? »

Ma réplique, un peu piquée, il est vrai :

Piètre réaction ! Ça me fait penser à ces traducteurs, il y a des années, qui refusaient les premiers traitements de texte parce qu'ils préféraient leur machine à écrire... C'est pas comme ça que le métier avancera ! Par ailleurs, il est tout à fait faux de prétendre que "ça n'a pas été écrit" : j'ai passé plus de deux jours sur ce billet, pour le rédiger et lui donner sa cohérence. Les passages de ChatGPT ont été incorporés là où je le souhaitais. Donc une réaction intelligente serait de dire "je lis ce billet et je le critique, en soulignant ce qui est faux". Ça, j'accepterais volontiers. Mais le refuser a priori parce qu'il y a des mentions de ChatGPT ne fait pas avancer le schmilblick, loin de là. Désolé pour la franchise.

*

Je vais donc essayer de démêler l'écheveau des idées préconçues qui ne mènent nulle part, sinon droit dans le mur...

Sur le premier point, c'est risible, justement. Que ça prête à sourire, pourquoi pas ? Beaucoup de sujets sérieux peuvent prêter à sourire. Mais ne surtout pas sous-estimer ce que j'ai qualifié de troisième révolution civilisationnelle. Pour faire bref, il conviendrait de passer du rire à la réflexion.

Le deuxième point est bien plus insidieux et demande une réponse approfondie. Dans tous les cas, cette simple "remarque" suscite en moi quantité d'observations, dont la première est qu'elle est fausse. Totalement. Ce serait comme ignorer les suggestions d'un correcteur orthographique (étape obligatoire pour tout traducteur qui se respecte), au prétexte que ce n'est pas un humain ! C'est un outil, l'IA aussi est un outil. Et comme tous les outils, elle n'est ni bonne ni mauvaise en soi, sa qualité dépend de l'usage qu'on en fait. L'analogie avec le couteau est très parlante : un couteau peut servir à couper du pain ou à blesser quelqu’un, or ce n’est pas le couteau qu’il faut accuser, mais la main qui le tient. Idem pour l'IA...

Dans un vieux texte, qui remonte aux années 90, sur la CAO (Création Assistée par Ordinateur), Jacques Lacant disait ceci : 

… mais peut-être qu'au lieu d'être menacée par l'ordinateur la liberté créatrice pourrait mieux s'épanouir grâce aux moyens accrus qu'il met à sa disposition. Refuser, de peur d'empiètements, ou par principe, le concours d'une branche aussi féconde de la science moderne, ce n'est certainement pas la voie de l'avenir…

Applicable à l'IA à la lettre !

Mais il y a un autre point que je ne peux passer sous silence quant à un texte qui n'aurait pas été écrit.

J'écris depuis que je suis adolescent. J'ai 68 ans à présent, j'écris donc depuis plus de 50 ans, surtout de la poésie (pas loin de 20 recueils, pratiquement jamais publiés), le contenu de ce blog à lui seul dépasse un million de mots, j'en ai traduit 20 autres millions en quarante ans, et je n'ai pas toujours le mot juste sous la main, au bon moment. Je lis beaucoup aussi. Par passion, personnelle et professionnelle. Il m'arrive d'ailleurs, assez souvent, de trouver chez les autres des phrases ou des paroles si parfaites que j'aurais tant aimé les écrire moi-même. Que fais-je dans ces cas-là ? Je les prends et je les fais miennes !

Extrait d'un poème à ma femme :

j'ai fait miennes les plus secrètes émotions
des plus magnifiques poèmes
des poètes de toujours

je te les donne

Idem avec ChatGPT : lorsque je trouve des raisonnements pertinents et que je décide de les insérer dans mon texte, je les fais miens. Cela signifie que je me les approprie, et que lorsque je publie un texte avec des mentions de ChatGPT ou de n'importe quelle autre IA dedans, j'en assume la paternité, en toute conscience. Ce n'est pas pour rien que je signe tous mes billets ! Donc venir me dire Pourquoi lire quelque chose qui n'a pas été écrit ? est une insulte à mon intelligence et à mon discernement. Inacceptable. Absolument inacceptable.

Je vais devoir m'inventer IA inside...

Refuser a priori un texte coécrit avec l’IA, c’est aussi refuser, de fait, une forme agrégée de la mémoire et des savoirs humains...

Les LLM sont entraînés sur des milliards de pages issues de livres, d’articles, de dialogues, de codes, d’essais… C’est un miroir, imparfait mais puissant, de la connaissance humaine.

Penser Pourquoi lire quelque chose qui n'a pas été écrit ? revient à refuser de lire un texte influencé par des milliers de bibliothèques, des siècles de pensée, et qui porte trace du collectif humain. 

Fi du déni ! Dans cette phrase, la négation n'est pas au bon endroit : « Pourquoi ne pas lire quelque chose qui a été écrit ? »

*

En conclusion, l'IA est là, et elle va y rester. Elle va même envahir nos vies de plus en plus, dans tous les aspects, tous les secteurs, toutes les langues, les cultures, à un rythme exponentiel, comme un tsunami inexorable ! Nier son existence n'aide en rien à appréhender le phénomène, à s'y préparer et apprendre à vivre avec, en développant notre capacité collective à comprendre, critiquer et utiliser les outils actuels (et ceux qui viendront) de manière responsable.



lundi 14 juillet 2025

AI Invasion in the Translation and Localization Market: a Seismic Shift for Freelancers, LSPs and End Clients

AI page

Post written in co-authorship with ChatGPT

The translation and localization market now sees competition among freelance translators, LSPs and AI-based MT systems, shifting dynamics from the traditional freelancer-LSP rivalry and reshaping competitive landscape. This new context offers freelancers opportunities to compete directly with LSPs for the benefit of end clients. Analyzing this situation involves assessing market trends, freelancers advantages, LSPs challenges, and strategies for end clients to capitalize on the opportunity.

*

Freelancers advantages

The new competition among freelance translators, LSPs, and AI-based MT systems presents a significant opportunity for freelancers to compete directly with LSPs. By leveraging their expertise in niche areas, embracing AI collaboration, building a strong personal brand, and educating clients on AI’s limitations, freelancers can differentiate themselves in a crowded market.

Challenges like price pressure and upskilling requirements are real, but strategic approaches—such as focusing on high-value tasks and diversifying services—can position freelancers for success, by leveraging their unique strengths, such as specialized expertise and personalized service, while adapting to AI’s presence. The evidence from 2025 industry sources (GetBlend, TranslaStars, etc.) supports the view that freelancers who adapt to this AI-driven landscape can thrive by offering what neither AI nor LSPs can fully replicate: human insight and tailored quality.

Currently, the market splits into:

  • Low-risk, high-volume content that clients now handle in-house.
  • High-risk, specialized content (legal, medical, creative) requiring human judgment.

Freelancers can position themselves on the second segment, as AI advisors, experimented-review translators, or transcreation specialists, offering value beyond what automated pipelines can deliver:

Dear Client, you’ve already automated 80% of the process. I’m the 20% that protects you from legal, linguistic, and reputational risk.” 

Freelancers have more than ever a strategic role to play because they are:

  • Experts in niche verticals (e.g., legal, technical, medical)
  • Agile and able to adapt faster than LSPs
  • Closer to end clients and more relationship-driven
  • Building personal brands and trust (something LSPs can't replicate)

As freelancers leverage AI to improve productivity, not replace quality, they can undercut LSPs while offering more value.

For general content (manuals, FAQs, e-commerce copy), clients no longer use a human translator. Or a project manager. Or a vendor coordinator. They just use a clean pipeline: AI + basic QA. That’s it.

But they still need post-editing. And they absolutely cannot and should not profit from it: it's neither a "compromise" nor a race to the bottom. LSPs impose reduced rates on translators, while holding them fully responsible for the final quality. This is not innovation. It's exploitation. Clients must act differently, fairly and responsibly.

As freelancers, we are evolving:

  • We’re mastering AI-enhanced workflows.
  • We offer subject-matter expertise, not just language skills.
  • We’re building direct client relationships based on trust, responsiveness, and niche specialization.
  • And we can do this without the overhead—or the markup—of a middleman.

LSPs still believe they’re the future of this industry. But in truth, unless they rethink their role, they may be the ones left behind. The new competition isn’t Freelancers vs. LSPs. Or Freelancers vs. AI. It’s LSPs vs. irrelevance.

#Translation #Localization #FreelanceTranslation #AI #MT #LanguageIndustry #ThoughtLeadership #LSP #Disruption

*

LSPs challenges

We often hear that freelance translators are being squeezed out—first by LSPs, now by AI. But here’s the real twist: AI isn’t just disrupting freelancers. It’s coming for LSPs too. Many Language Service Providers still underestimate how profoundly AI is eroding their core value proposition. For years, LSPs thrived on delivering speed, volume, and lower cost. Now AI can do that better—and without the overhead.

Let’s be honest, LSPs may not fully understand the competitive dynamics of AI-based MT systems, that they too are risking their survival against the AIs and particularly how their misuse of AI only as a cost-cutting tool undermines their own position. They still underestimate the true threat posed by AI-based Machine Translation (MT) systems to their own business model. Here are the key points LSPs often fail to grasp:


🔍 1. AI Disrupts Their Core Value Proposition

Most LSPs have traditionally sold Speed + Scale + Cost-efficiency”

But AI does this faster, cheaper, and (in many cases) “good enough” for general content. If their value proposition is indistinguishable from what AI now provides, they have nothing left but:

  • Project management overhead
  • Sales volume
  • Subcontracting workflows

This makes them obsolete at worst, and interchangeable at best.


💣 2. AI Eats the Low-End — Their Revenue Base

LSPs make much of their margin on:

  • Bulk translation (e.g., manuals, FAQs, marketing copy)
  • High-volume, low-complexity work (tech docs, e-commerce, subtitles)

AI is already better and cheaper at these. So, their high-volume revenue base is being eroded without a clear pivot to high-value services like:

  • Legal
  • Medical
  • Compliance-heavy translation

AI is so impressive, when systems like Google Translate are able to process 100 billion words daily, or like Deepl who translates 60 million words in only two seconds, are LSPs truly ready for that shift?


⚙️ 3. AI Is Also Automating LSP Processes

What LSPs don’t realize is that the backend of their business is also being automated:

  • Quote generation
  • File prep
  • Post-editing
  • QA
  • Vendor management

SaaS platforms and AI integrations are enabling clients to skip LSPs entirely by automating the entire flow in-house or via AI-integrated CAT tools.


🤖 4. AI + Direct Client = LSP Disintermediation

Clients are increasingly:

  • Using DeepL, Google Translate, ModernMT themselves
  • Hiring post-editors or QA specialists directly
  • Asking freelancers to use AI to lower rates

Which means the LSP layer is being bypassed. LSPs are losing control of the value chain.


🧠 5. They Misunderstand What Clients Want from Human Translators

Clients are not looking for "just translation" anymore. They want:

  • Legal and regulatory accuracy
  • Subject-matter expertise
  • Cultural and contextual insight
  • Accountability and confidentiality

Freelancers can offer that. LSPs struggle to scale it, because they rely on interchangeable vendor pools and can’t guarantee consistent expertise.


📉 6. Post-Editing is a Race to the Bottom

LSPs often push post-editing of MT (PEMT) to freelancers:

  • At rates far below real translation
  • While still holding them fully accountable

But the output quality of AI is inconsistent, the work is mentally exhausting, and liability remains with the human.

This creates a toxic business model* that is bad for the translator — and unsustainable long term.


💼 7. They Underestimate the Strategic Role of Freelancers

Freelancers are:

  • Experts in niche verticals (e.g., legal, technical, medical)
  • Agile and able to adapt faster than LSPs
  • Closer to end clients and more relationship-driven
  • Building personal brands and trust (something LSPs can't replicate)

As freelancers leverage AI to improve productivity, not replace quality, they can undercut LSPs while offering more value.


⏳ 8. They Are Not Innovating Fast Enough

For sure the biggest LSPs may invest in AI or build proprietary MT engines, but the majority of tehm are stuck, because they're:

  • Not integrating AI meaningfully
  • Still reliant on outdated TMS/CAT workflows
  • Failing to build new pricing models

So they are being overtaken from both ends:

  • Upmarket by global tech firms building in-house localization teams
  • Downmarket by AI and freelancers using modern workflows


In this context, it won't be long before LSPs become completely useless:

  • Their core volume services (support docs, marketing copy, internal comms) can now be handled internally by clients using SaaS + AI.
  • Their value-add services risk commoditization as clients build internal capabilities.
  • Their project management roles are eroded by automation, from vendor assignment to delivery workflows.

*

End Clients: strategies to capitalize on the opportunity

As we said above in point 3., SaaS platforms and AI integrations are enabling clients to skip LSPs entirely by automating the entire flow in-house or via AI-integrated CAT tools.

Yes, clients can—and increasingly are—bypassing LSPs entirely. Advanced localization SaaS platforms plus AI agents are enabling clients to automate translation workflows from source to publish.

This should be a wake-up call for LSPs and an opportunity for freelancers: the frontier is no longer volume or speed — it's specialization, risk management, and human oversight.

Just see how clients are automating the entire localization flow:


1. AI-Orchestrated SaaS Localization Platforms

Platforms like Lokalise and OneSky now function as end-to-end localization hubs:

  • Lokalise uses AI to select optimal MT engines per content type, automates glossary enforcement, and integrates QA checks — all within cloud-native workflows tied to GitHub, Figma, Zendesk, etc.

  • OneSky’s OLA Agent automates parsing, translation, QA, and QA-triggering workflows directly from code repositories—reducing the need for human project managers.

These platforms let clients orchestrate translation, review, and deployment internally — without using an LSP.


2. Agentic & Workflow Automation in Localization Ops

Advanced systems now support end-to-end agentic automation:

  • Gridly and similar tools integrate AI suggestions, TM reuse, QA checks, and naming/version controls into translation workflows accessible to in-house teams.

  • OneSky’s AI Agent is already triggering automatic workflows: detect content changes, initiate MT, auto-route for QA, and even deploy to production—often without human intervention.


3. Built-In AI QA & Automation in CAT/Translation Tools

Modern CAT/TMS platforms embed built-in AI features:

  • Smartling, Phrase, TAIA, ClearlyLocal include predictive QA, visual context validation, and even formatting automation—reducing manual costs and delays.

  • Phrase and Clearly Local use intelligent routing: AI handles bulk QA tasks, while human reviewers focus on contextual, high-risk content.

These tools allow internal teams to manage localization pipelines autonomously — bypassing agency dependency.


4. End-to-End SaaS Localization Workflows

Clients increasingly adopt in-house or embedded localization workflows, including:

  • Automatic content detection via APIs (e.g., GitHub, WordPress, Figma)
  • AI translation + glossary-based consistency
  • Automated QA and LQA tasks
  • Instant deployment to multilingual products or websites
  • Built-in release orchestration and localization risk predictions

The result: product launches can include simultaneous language updates without manual overhead, using full automation where risk tolerance allows.


And this is just the beginning...

*

Times are changing, and fast. The translation and localization industry is undergoing its most dramatic shift in decades. Freelancers are more than ever at the forefront of the New Language Economy

AI is not just disrupting tasks — it's redrawing the power map. Clients are no longer tied to LSPs for speed and scalability. Automation, SaaS tools, and AI integration now deliver that directly.

But human expertise, contextual judgment, and legal accountability is not something you can build into a pipeline. That’s where freelancers step in — not as replaceable labor, but as strategic partners in a hybrid, high-risk, high-value localization world:

  • Freelancers win when they position themselves as AI-aware experts, not just vendors.
  • LSPs lose when they treat AI as a cost-cutting shortcut rather than a reason to reinvent.
  • Clients win when they combine the efficiency of AI with the expertise of niche freelancers.

The future is already here — and it's specialized, disintermediated, and human-led. Freelance translators who understand their unique value, adapt to new tools, and speak directly to client needs are no longer the industry's underdogs. They're its evolution.

The question is no longer “Will AI replace translators?”
It’s “Will LSPs keep up with translators who’ve already embraced AI?”


vendredi 11 juillet 2025

IA : le nouveau contrat social (qui ne sera jamais signé)

page IA

L'adoption de l'IA à tous les niveaux se fait de façon désordonnée, chaotique même, sans aucune réflexion, aucune planification. Que ce soient les gouvernements, les entreprises ou les particuliers, tout va trop vite, les progrès technologiques incessants et de plus en plus rapprochés ont des années-lumière d'avance sur la capacité humaine d'assimiler tout cela, avec des conséquences pour le moins sournoises.

Dans mon premier billet d'une longue série sur l'IA, intitulé « La troisième révolution civilisationnelle : l'intelligence artificielle (IA) », je n'ai pas choisi par hasard la notion de révolution civilisationnelle, quand bien même « civilisationnel » est un terme peu utilisé, probablement parce qu'il est censé décrire des phénomènes, des enjeux ou des transformations ayant un impact profond, global et durable sur une civilisation dans son ensemble.

Par essence, une révolution civilisationnelle est rare, mais lorsqu'elle se produit elle génère à la fois une urgence civilisationnelle pour l'humanité dans son ensemble, de même qu'un défi civilisationnel à relever par l'humanité dans son ensemble.

*

1. L'urgence civilisationnelle de l'IA

À ce jour, l'accélération phénoménale à laquelle nous assistons ne s'accompagne malheureusement d'aucune vision collective. L’intégration massive de l’IA dans les secteurs productifs, administratifs et sociaux transforme le tissu économique plus rapidement que notre capacité à en anticiper les effets humains. Or, les cadres actuels — réglementaires, sociaux, politiques — sont obsolètes. Le droit du travail peine à encadrer l’automatisation des tâches, la redistribution des gains de productivité est inexistante, et les citoyens se voient exclus des choix technologiques qui façonnent leur quotidien.

Cette absence de tout projet collectif renforce la défiance, les inégalités et la fracture démocratique, pour autant que l'on puisse croire que la démocratie existe encore...

Lorsque le rythme fulgurant des progrès technologiques et la formidable puissance économique de l'IA dépassent la capacité des sociétés humaines à réfléchir, réguler, absorber, ou même simplement comprendre ce qui se passe, cela crée un "gap d’assimilation" entre ce que la technologie permet et ce que la société peut moralement, culturellement et politiquement supporter, tant au plan collectif qu'individuel.

Or, inutile de nier que l'IA interroge en profondeur ce que nous sommes en reconfigurant tous les fondements de nos sociétés :
  • Le travail : automatisation massive, disparition ou transformation de millions d’emplois.
  • La connaissance : génération de contenus, fiabilité des savoirs, fin de l’expertise traditionnelle.
  • La décision : délégation croissante du jugement humain aux algorithmes (justice, sécurité, santé…).
  • L’identité et les relations humaines : confusion croissante entre ce qui est produit par l’homme et par la machine, société « sans contact », remplacement partiel des interactions humaines par des agents IA.
  • La politique : influence algorithmique sur l’opinion, surveillance, gouvernance par les données.
Il s’agit désormais d’un acteur structurant notre vie en société, personnelle et professionnelle. En partie encore silencieuse, mais massive, la rupture va bien au-delà de la sphère technologique, elle est anthropologique, sociale, politique ! L’IA est un levier de transformation systémique remettant en question les structures qui distinguent l’humanité - le travail, la justice, la liberté, la coopération et la survie dans un monde écologiquement fragile -, de même qu'elle redéfinit "notre contrat social", ou pour le moins ce qu'il en reste. Le tout à une rapidité sans précédent...

*

2. Le défi civilisationnel posé par l'IA

Si l'on veut (pour peu qu'on le puisse encore) transformer cette urgence en opportunité, nombreux sont les défis que l'humanité devra relever pour y répondre. Parmi les mesures idéales :

  • mener une réflexion anthropologique sur ce que signifie être humains dans un monde de machines ;
  • réfléchir à une régulation démocratique, pour concevoir un cadre collectif où l’IA sert l’intérêt général, respecte les droits humains et implique une participation citoyenne dans la définition de ses usages, limites et finalités ;
  • concevoir une redistribution des finalités, où la technologie est au service d'un projet de société humain, et non l’inverse ;
  • ralentir et aménager des pauses pour retrouver du temps commun, du sens partagé, de l’intelligence collective.

a) mener une réflexion anthropologique

L'anthropologie se rapporte à l'étude de l'être humain dans toutes ses dimensions : comportements, sociétés, cultures, croyances, etc. L'IA, qui est censée être conçue par des humains (pour l'instant) et pour des humains, n'est jamais neutre. De fait, une IA est entraînée sur des données humaines (textes, images, vidéos, comportements numériques) qui reflètent nos biais, nos stéréotypes, nos cultures dominantes, etc. Il y a actuellement une forte inquiétude sur des publications polémiques de Grok en matière de racisme, qui pourrait donner lieu à l'ouverture d'une enquête de la Commission européenne... 

Tout cela est lié de très près ! Nvidia vient juste de passer le cap des 4000 milliards de dollars de capitalisation (elle était à 1000 milliards il y a tout juste deux ans), uniquement parce que c'est le géant des puces (oxymore ?) destinées à l'IA qui fait exploser son chiffre d'affaires et ses bénéfices trimestre après trimestre, malgré les restrictions sur les puces chinoises. Très bien, elle arrivera sûrement à dix mille milliards, cent, que sais-je ? Mais pour quoi, et pour qui ? Pour garnir les poches de Jensen Huang ? Mais qu'en sera-t-il des 8 autres milliards d'humains sur la terre ?

Il y a à peine plus d'un mois, DeepL s'associait à Nvidia pour traduire l'ensemble du Web en moins de 20 jours ! Maintenant DeepL traduit en moins d'une seconde les 20 millions de mots que j'ai mis 40 ans à traduire, en allant 1,89 milliard de fois plus vite que moi ! Très bien, mais à quoi sert la suprématie traductionnelle, et à qui ?

Ce matin j'ai reçu un message d'un grand groupe de traduction (LSP), adressé à l'ensemble des collaborateurs, pour nous prévenir qu'ils avaient adopté la post-édition automatique... Or vu qu'ils ne sont pas encore sûrs et certains de la qualité finale, ils nous demandent de devenir des post-éditeurs de leur post-édition automatisée !!! Cette nullité au carré a pourtant un but : atteindre tôt ou tard un produit 100% automatisé, juste pour supprimer 100% des traducteurs et engranger toujours plus d'argent. Ce qu'ils ne comprennent pas, c'est que le jour où ils n'auront plus besoin des traducteurs, les clients n'auront plus besoin d'eux non plus ! 

Donc je répète ma question : à quoi tout cela sert-il, et à qui ? Face à ces exemples par milliers où chacun scie la branche sur laquelle il est assis, comment ne pas comprendre la nécessité de mener une réflexion anthropologique si l'on veut sortir d'une telle absurdité ? 


b) réfléchir à une régulation démocratique

C'est le pendant du paragraphe précédent, qui va même au-delà de l'IA : comment penser et réguler le progrès technologique au XXIe siècle pour mieux l'humaniser ? En sachant que toute régulation doit aussi être le fruit d'un compromis : trouver l'équilibre entre innovation et régulation pour éviter d'étouffer les start-ups ou freiner la recherche. Il n'empêche, l'objectif ne peut pas - plus - être seulement économique.

Il s'agit de concevoir un cadre collectif où l'IA servirait l’intérêt général, dans le respect des droits humains, et avec une véritable participation citoyenne à la définition de ses usages, limites et finalités. Cela permettrait de rééquilibrer le pouvoir technologique, de protéger les citoyens et de repolitiser les choix algorithmiques, aujourd’hui largement délégués à des acteurs privés et techniques.

Pour illustrer ce propos, puisque l’IA affecte des aspects fondamentaux de la vie collective (emploi, santé, justice, information, sécurité, etc.), les décisions sur son développement ne peuvent pas être seulement technocratiques ou dictées par des intérêts commerciaux, il s’agit de garantir la souveraineté collective sur les systèmes qui nous gouvernent de plus en plus directement ou indirectement.

Car la régulation seule ne suffit pas si on ne s’interroge pas aussi sur le "pour quoi faire" de la technologie et "pour qui" (reprise du pour quoi et pour qui du petit a). Sans ce questionnement, comment croire un seul instant que la société cessera d'elle-même de subir les buts qui lui sont imposés (par le marché ou autres décideurs en tous genres) pour reprendre en main ses destinées en cessant de se contenter de poser des limites et en commençant à définir activement ce qu’elle veut faire de ses technologies, pour que celles-ci redeviennent des politiques au service du bien commun.

La régulation démocratique, c'est le contrôle du "comment" : qui décide, comment on encadre les usages, quelles limites on impose, comment on protège les droits, mais sans remettre en cause les finalités implicites de l’IA (efficacité, automatisation, rentabilité, croissance, etc.). Le pour quoi et pour qui consiste à réorienter vers un changement de cap, qui ne soit pas uniquement un frein ou une barrière.

Coïncidence, la Commission européenne vient de publier un cadre volontaire (non obligatoire pour l’instant), visant à guider les entreprises dans la mise en conformité anticipée, à encourager les bonnes pratiques éthiques et techniques, tester les obligations à venir dans un cadre souple, créer une culture commune de la régulation avant l’obligation légale, et donner un avantage aux acteurs qui s’aligneront tôt, en matière de réputation, d'accès au marché ou d’innovation responsable.

La loi sur l'IA est une réglementation contraignante sur l'intelligence artificielle votée par l'UE : entrée en vigueur en 2024, elle s'applique progressivement jusqu’en 2026, date à laquelle elle deviendra pleinement applicable.

Le Wall Street Journal en parle déjà, et OpenAI et Google ont annoncé qu'ils étudieraient le document pour décider si le signer ou non... 

Dans un autre registre, le Pape Léon XIV demande une « gouvernance coordonnée de l'IA » à l'occasion du Sommet AI for Good 2025 , qui se conclut aujourd'hui (Genève, 7-11 juillet 2025), en insistant sur l’importance de développer l’intelligence artificielle avec « responsabilité et discernement ». Nous sommes en plein sujet !

Des initiatives privées se font également jour pour encadrer la matière.


c) concevoir une redistribution des finalités

Cette "reconstruction" consiste essentiellement à :
  • se demander à quoi l’IA devrait vraiment servir (au regard de l’intérêt général, de la justice sociale, de l’écologie, etc.)
  • interroger des dimensions ignorées par la logique de marché (favoriser les débats autour de l'IA, ralentir les flux, cultiver le discernement, préserver l’attention)
  • se donner le droit de dire : « Nous voulons une IA qui serve et desserve … autre chose que la performance. »
  • favoriser dans les médias le pluralisme d’opinion, ralentir la diffusion de l’information, renforcer les analyses critiques, etc. (je sais, je rêve...)
Quelques pistes pour inverser le sens des finalités (des technologies vers l'humain, et non le contraire), en repensant :
  • les finalités du travail dans la société : à présent, les choix techniques orientent trop souvent les choix sociaux, on déploie une technologie parce qu’elle existe, parce qu’elle est rentable ou innovante, sans se demander si elle est vraiment souhaitable, et pour quoi et pour qui
  • la place de la décision humaine, en remettant les besoins sociaux, écologiques et démocratiques au centre des choix techniques : communs technologiques (logiciels libres, infrastructures partagées), soutien public à des innovations ayant un impact social, etc.  
  • mettre la technologie au service de projets humains concrets : définir d’abord un projet de société humain et soutenable, et choisir ou concevoir ensuite les technologies pouvant y contribuer (projets de justice sociale, de sobriété écologique, de renouveau démocratique…)
En clair, ce n’est pas à la société de s’adapter aux technologies, mais aux technologies de répondre aux choix collectifs de société, le progrès n’est plus ce que permet la technologie, mais ce que choisit la société. Pour sortir collectivement du pilotage automatique de l’innovation et reprendre la main sur le monde que nous voulons construire...


d) ralentir et aménager des pauses

J'ai mentionné plus haut mon premier billet de cette longue série sur l'IA (loin d'être terminée), le second s'intitule : « Le temps de la réflexion ». Ne pouvant pas le reporter ici dans son intégralité (je vous conseille cependant de le lire si vous avez deux minutes à perdre), je me contenterai de mentionner la conclusion :

« J'ai commencé ce billet en citant Paul Virilio, je conclurai de même :
Le temps humain n'est pas le temps des machines. Avant, le temps humain, c'était le passé, le présent, le futur. Aujourd'hui, c'est du 24/24, du 7 jours sur 7, c'est l'instantanéité. Ça explique combien il est difficile de vivre, de tout concilier... Il faut se laisser le temps de réfléchir, le temps d'aimer... »

Le temps d'aménager des pauses pour retrouver du temps commun, du sens partagé, de l’intelligence collective !

*

Que de belles paroles, me direz-vous. Rassurez-vous, je ne suis pas dupe, je sais parfaitement qu'elles sont à la limite de l'utopie, mais imaginez un instant Jean-Jacques Rousseau, lorsqu'il écrit « Du Contrat social » et le publie en 1762, alors en rupture et en opposition à l'absolutisme monarchique, à l’inégalité sociale et à la domination des élites.

Vous voyez une différence avec les temps présents ? 

Ou encore, en 1755, dans son Discours sur l’origine et les fondements de l’inégalité parmi les hommes, lorsqu'il critique la société civile comme étant le lieu où les inégalités se sont instituées.

Vous voyez une différence avec les temps présents ? 

Donc si l'on en parle toujours deux siècles et demi plus tard, l'idée de créer un nouveau contrat social tenant compte de la révolution de l'IA n'est certainement pas moins utopique aujourd'hui qu'elle ne l'était au temps de Rousseau pour les raisons qui l'occupaient.  

Et lui qui tentait, déjà, de repenser les fondements légitimes de l'autorité politique, il nous offre encore un socle de réflexion robuste pour repenser le rapport entre individus, société et pouvoir. 

Certes, le contrat social n'a cessé d'évoluer depuis l'époque, mais l’IA, la robotisation, les plateformes numériques et la mondialisation des données altèrent profondément le cadre tacite du contrat social post-industriel :

  • Le travail n’est plus le seul vecteur d’intégration sociale
  • Les décisions qui nous affectent sont prises par des algorithmes opaques, souvent sans débat public
  • La puissance des grands acteurs de l'IA et des multinationales dépasse de plus en plus celle des États
  • Les règles fiscales, éthiques et juridiques sont inadaptées à la vitesse de l’innovation

J'ai demandé à ChatGPT quels devraient être les grands piliers que le législateur devrait formaliser. Voici la réponse :

Pilier

Exigence démocratique

Souveraineté numérique

Droit collectif à la transparence, au contrôle des algorithmes, à la maîtrise des infrastructures critiques

Équité sociale

Redistribution équitable des gains de productivité liés à l’IA (revenu de transition, taxation de l’automatisation, protection sociale élargie)

Participation active

Droit de chaque citoyen à participer à la régulation des technologies et à l’élaboration des normes

Reconnaissance du travail non marchand

Intégrer la valeur sociale des activités de care, de transmission, de bénévolat, etc.

Accès universel à la formation et à la reconversion

Reconnaître l’éducation et la montée en compétences comme un droit fondamental face aux transformations IA

Je n'aurais pas trouvé mieux :-)

En conclusion, le moment est historique. Il ne s’agit pas de "ralentir" l"innovation, mais d'opérer un choix collectif pour reprendre la maîtrise politique de ce que nous voulons en faire. Repenser le contrat social à l'ère de l’IA, c'est choisir ensemble ce que nous jugeons utile, juste, souhaitable.


*

Avant de terminer cette réflexion, je voudrais laisser une idée à votre attention. J'ai demandé à 7 IA (ChatGPT, Gemini, Grok, Claude, Mistral, DeepSeek et Perplexity) de me rédiger une Charte internationale de l'IA. J'en ferai peut être un billet un jour, si ça me dit. Pour l'instant je me suis contenté de faire une analyse statistique des 7 textes proposés, et d'en extraire les termes significatifs les plus fréquents. 

Après avoir éliminé les mots "article", "charte", "internationale", "intelligence", "artificielle" et "IA" pour des raisons évidentes de surreprésentation, je vous propose le nuage sémantique pondéré des 70 termes les plus cités, créé par le regretté Wordle :


J'ai été très surpris de constater que le substantif le plus fréquent était Systèmes (48 fois au pluriel et 8 fois au singulier), et plus précisément systèmes d'IA

Le règlement IA les définit comme suit : « un système automatisé conçu pour fonctionner à différents niveaux d'autonomie, qui peut faire preuve d'une capacité d'adaptation après son déploiement et qui, pour des objectifs explicites ou implicites, déduit, à partir des données d'entrée qu'il reçoit, la manière de générer des résultats tels que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer les environnements physiques ou virtuels » (article 3).

Ainsi, comme mentionné au considérant 97 du RIA : « bien que les modèles d'IA soient des composants essentiels des systèmes d'IA, ils ne constituent pas des systèmes d'IA à eux seuls. Les modèles d'IA nécessitent l'ajout d'autres composants, comme par exemple une interface utilisateur, pour devenir des systèmes d'IA. Les modèles d'IA sont généralement intégrés dans les systèmes d'IA et en font partie. » 

J'aurais au moins appris quelque chose !




vendredi 4 juillet 2025

IA : le rêve impensé de Diderot et d'Alembert...

page IA

L’Encyclopédie est un ouvrage majeur du XVIIIe siècle et la première encyclopédie française. Par la synthèse des connaissances du temps qu’elle contient, elle représente un travail rédactionnel et éditorial considérable pour cette époque et fut menée par des Encyclopédistes constitués en « société de gens de lettres ». Enfin, au-delà des savoirs qu’elle compile, le travail qu’elle représente et les finalités qu'elle vise, en font un symbole de l’œuvre des Lumières, une arme politique et à ce titre, l’objet de nombreux rapports de force entre les éditeurs, les rédacteurs, le pouvoir séculier et ecclésiastique.


La phrase importante est : « Par la synthèse des connaissances du temps qu’elle contient... »

Éditée de 1751 à 1772 (21 ans), l’Encyclopédie ou Dictionnaire raisonné des sciences, des arts et des métiers voulait être, selon la volonté de leurs auteurs, un compendium de l'époque, de tous les savoirs humains accessibles en ce temps-là...

Jamais ils n'auraient pu imaginer une seule seconde ce que l'on vit aujourd'hui, ni ce que nous vivrons d'ici quelques années selon Eric Schmidt :

D'ici 3 à 5 ans (2028-2030), émergence de l'intelligence artificielle générale (AGI, celle qui mettra dans la poche de chacun de nous l'équivalent du plus intelligent des experts humains pour chaque problème !)

En fait, nous l'avons pratiquement déjà avec l'IA embarquée sur nos smartphones : quand, dans l'histoire de l'humanité, a-t-il été possible de poser n'importe quelle question, dans n'importe quelle langue, sur n'importe quel sujet, et d'obtenir une réponse pertinente quasi-instantanée ? Jamais. Et, tout comme Federico Pucci ne pouvait pas prévoir l'accessibilité gratuite de la traduction automatique universelle, ni Diderot ni d'Alembert n'auraient osé concevoir la réalité de ces jours-ci, à savoir une « intelligence artificielle » capable de :

  • comprendre la langue naturelle, même si elle est imparfaite,
  • traduire automatiquement, souvent sans perte de sens,
  • synthétiser une énorme masse d'informations,
  • générer une réponse adaptée au contexte, presque en temps réel.

Un tel accès planétaire à la connaissance, rendu disponible dans quasiment toutes les langues du monde par des IA toujours plus intelligentes, spécialisées et collaboratives, était tout juste inconcevable, et impensé. Or ici et là, je vois tous les jours des discussions de gens très au courant, très experts et documentés, qui semblent trouver ça normal, ne s'étonner de rien, évoquer des scénarios futuristes jugés plausibles...

Non, ce n'est pas normal ! Avec l'informatique quantique, je les ai respectivement nommées la troisième et la quatrième révolutions civilisationnelles : SUP². Tout cela est si extraordinaire, quand bien même un miroir peut éclairer ou éblouir, voire aveugler !

En 2025, Jules Verne aurait pu nommer l'avenir « L'ère des consciences multiples », où l’IA ne se contente plus de répondre aux questions, mais participe activement à la pensée humaine. L’intégration fluide de l’IA dans les appareils du quotidien (lunettes, oreillettes, interfaces neuronales non invasives) dote chaque individu de “consciences auxiliaires” multiples :

  • Une IA spécialisée en communication optimise la façon de s’exprimer, traduit instantanément et vous signale en temps réel ce que votre interlocuteur ressent.
  • Une IA cognitive complète la mémoire, anticipe les oublis, propose des liens, des associations d'idées, des documents, des conversations passées.
  • Une IA éthique pose les bonnes questions lorsqu'il s'agit de prendre une décision délicate, en simulant plusieurs perspectives morales.
  • Une IA éducationnelle/pédagogique enseigne aux enfants à ne plus apprendre par mémorisation, mais par interactions soufflées par leurs robots conversationnels. Chaque élève a un programme sur mesure : langues, mathématiques, histoire, etc. toutes disciplines vécues en réalité augmentée ou à travers des jeux immersifs co-construits avec l’IA. Un enfant peut dire à son IA : « Emmène-moi dans la Rome antique » et se retrouver plongé en quelques secondes dans un dialogue interactif avec Cicéron ou César.
  • Une IA médicale, professionnelle, artiste, etc. Les médecins travaillent avec des IA expertes qui détectent des pathologies avant l’apparition des symptômes. Les délais actuels de découverte de nouvelles molécules par les laboratoires pharmaceutiques sont divisés par 10 ou plus. Les consultants et/ou artisans déploient des activités professionnelles augmentées. Les créateurs, artistes, architectes collaborent avec des IA capables d’imaginer des formes et des idées inexplorées par l’humain.

Le travail humain devient curation, choix, responsabilité : l’humain décide de la direction, l’IA exécute ou propose. Les scénarios sont infinis. Attention toutefois au revers de la médaille :

  • Des « humains déconnectés » sont marginalisés, car incapables de suivre le rythme cognitif des « humains augmentés ».
  • La frontière entre ce qu’on pense et ce que l’IA suggère devient floue. Qui décide vraiment ?
  • Certains États imposent des IA idéologiquement filtrées : ce que tu crois savoir dépend de l’IA que tu utilises. L'IA déploie la propagande et le « crédit social » à l'échelle planétaire.
  • Les cyberattaques peuvent désormais désinformer, manipuler la pensée des masses via les IA personnelles.

Globalement ce futur d'une « pensée partagée » n'est rien d'autre qu'une nouvelle forme de solitude, porteuse de risques d'atrophie cognitive, nous devrons donc apprendre à vivre avec l’IA sans lui céder notre libre arbitre pour devenir les navigateurs d’un monde où penser ne sera plus une tâche solitaire, destinée à s'inscrire dans un dialogue constant avec des consciences créées par l’humanité elle-même.

Je conclurai sur cette citation de Diderot, extraite de son Discours préliminaire à l'Encyclopédie :

Le but d’une encyclopédie est de rassembler les connaissances éparses sur la surface de la Terre [...] afin qu’en devenant un bien commun, elles ne soient plus la propriété des seuls privilégiés.

Appliqués à l'IA en 2025, ces mots sont plus que jamais prophétiques !

jeudi 3 juillet 2025

IA : glossaire EN - FR de l'intelligence artificielle

page IA

Glossaire EN → FR de 156 termes liés à l’IA

Adversarial Machine Learning

Apprentissage machine antagoniste

Technique consistant à tromper un modèle avec des entrées volontairement manipulées.

Agent

Agent autonome

Programme capable d'agir de manière autonome pour atteindre un objectif donné.

AGI (Artificial General Intelligence)

Intelligence Artificielle Générale

IA hypothétique dotée de compétences générales similaires à celles des humains.

AI

IA - Intelligence artificielle

Discipline visant à créer des systèmes capables d'accomplir des tâches habituellement humaines.

Algorithm

Algorithme

Suite d'instructions permettant de résoudre un problème ou accomplir une tâche.

Alignment

Alignement

Processus d’ajustement d’un modèle pour qu’il réponde aux attentes humaines.

Annotation

Annotation

Ajout d’étiquettes ou de métadonnées à des données pour entraîner un modèle.

API (Application Programming Interface)

Interface de programmation

Outil permettant à différents logiciels de communiquer entre eux.

Artificial Intelligence (AI)

Intelligence artificielle

Voir "AI" ci-dessus.

Attention

Attention

Mécanisme permettant à un modèle de se concentrer sur certaines parties d'une entrée.

Attention mechanism

Mécanisme d’attention

Système qui permet au modèle de se concentrer sur les parties importantes d’un texte.

Autoencoder

Autoencodeur

Réseau de neurones non supervisé utilisé pour l'encodage et la reconstruction de données.

Auto-regressive model

Modèle auto-régressif

Génère du texte mot par mot, en se basant sur les mots déjà produits.

Backpropagation

Rétropropagation

Méthode d'apprentissage consistant à ajuster les poids en fonction de l'erreur.

Beam Search

Recherche en faisceau

Méthode de décodage qui explore plusieurs chemins à la fois pour choisir la sortie la plus probable.

Benchmark

Référentiel d’évaluation

Test standardisé pour comparer les performances des modèles.

BERT

BERT

Modèle de langage bidirectionnel préentrainé pour la compréhension du texte.

Bias

Biais

Distorsion systématique dans les résultats, souvent issue des données d’entraînement.

Bias (in AI/data)

Biais (en IA/données)

 Distorsion ou erreur systématique dans les résultats d'un modèle d'IA, souvent due à des données d'entraînement non représentatives, incomplètes ou reflétant des préjugés sociaux. Les LLM peuvent hériter et amplifier ces biais.

Big Data

Mégadonnées

Ensemble de données volumineuses, complexes, traitées à l'aide de technologies spécifiques.

Billion Parameters

Milliards de paramètres

Unité de mesure courante de la taille et de la complexité d'un LLM. Plus un modèle a de paramètres, plus il est généralement capable de comprendre et de générer du langage complexe, mais plus il est coûteux à entraîner et à exécuter (ex. GPT-3 avait 175 milliards de paramètres).

BLEU Score

Score BLEU

Métrique d’évaluation de la qualité d’une traduction automatique.

Chain-of-Thought (CoT)

Chaîne de raisonnement

Méthode où le raisonnement du modèle est explicité pas à pas (raisonnement logique)

Chain-of-Thought (CoT) Prompting

Prompting "chaîne de pensée"

Technique d'ingénierie de prompt qui consiste à inciter le LLM à "raisonner" étape par étape, en décomposant un problème complexe en une série d'étapes intermédiaires avant de donner la réponse finale. Cela améliore souvent la précision et la cohérence des réponses.

Chatbot

Agent conversationnel

Programme conçu pour interagir avec des humains via du texte.

ChatGPT

ChatGPT

Modèle de dialogue développé par OpenAI, basé sur GPT.

Checkpoint

Point de sauvegarde

État enregistré d'un modèle à un moment donné de l'entraînement.

Constitutional AI

IA constitutionnelle

IA conçue pour respecter des règles éthiques définies dans son apprentissage.

Context window

Fenêtre de contexte

Quantité maximale d’information que le modèle peut "voir" en une fois.

Convolutional Neural Network (CNN)

Réseau de neurones convolutifs

Réseau utilisé surtout pour le traitement d’images et la reconnaissance de formes.

Corpus

Corpus

Collection de textes utilisés pour l’apprentissage ou l’évaluation d’un modèle.

Data annotation

Annotation de données

Ajout de balises ou labels sur les données pour entraîner un modèle.

Data augmentation

Augmentation de données

Techniques pour créer artificiellement de nouvelles données à partir de celles existantes.

Data curation

Curation de données

Sélection rigoureuse de données utiles à l’entraînement.

Data mining

Exploration de données

Extraction de connaissances à partir de grandes bases de données.

Data poisoning

Empoisonnement de données

Manipulation malveillante de données pour compromettre un modèle.

Dataset

Jeu de données

Collection de données utilisée pour entraîner ou tester un modèle.

Decoder

Décodeur

Partie d'un modèle qui génère une sortie à partir de représentations internes.

Decoding

Décodage

Conversion de la sortie du modèle en texte compréhensible.

Deep Learning (DL)

Apprentissage profond

Branche du machine learning utilisant des réseaux neuronaux profonds.

Diffusion model

Modèle de diffusion

Modèle génératif qui transforme du bruit en données structurées (texte, image...).

Dropout

Abandon

Technique réduisant le surapprentissage en désactivant des neurones aléatoirement.

Embedding

Représentation vectorielle

Représentation numérique d’un mot ou concept dans un espace mathématique.

Embeddings (Word/Sentence/Token)

Plongements (de mots/phrases/jetons)

Représentations vectorielles denses (listes de nombres) de mots, de phrases ou de jetons dans un espace multidimensionnel. Ces vecteurs capturent le sens sémantique et les relations entre les éléments linguistiques, permettant aux modèles d'IA de "comprendre" le langage.

Emergent Abilities

Compétences émergentes

Capacits apparaissant à grande échelle et non prévues à petite échelle d'entraînement.

Encoder

Encodeur

Partie du modèle qui transforme un texte en vecteurs.

Epoch

Époque

Passage complet d'un modèle sur l'ensemble du jeu de données d'entraînement.

Evaluation

Évaluation

Mesure des performances d'un modèle sur des tâches ou données spécifiques.

Evaluation metric

Métrique d’évaluation

Indicateur chiffré servant à comparer différents modèles.

Few-shot learning

Apprentissage avec peu d’exemples

Capacité à généraliser à partir de quelques exemples.

Fine-tuning

Ajustement / Réglage fin

Spécialisation d’un modèle généraliste sur une tâche ou un domaine.

Foundation model

Modèle fondamental

Modèle généraliste servant de base à d’autres applications.

Frozen Model

Modèle gelé

Modèle dont les poids ne sont plus modifiés lors d'un apprentissage secondaire.

Generative AI

IA générative

IA capable de produire du contenu (texte, image, code…).

Generative model

Modèle génératif

Modèle IA capable de produire du contenu (texte, image, son...).

Generative Pre-trained Transformer (GPT)

Transformeur Génératif Pré-entraîné (GPT)

Famille de grands modèles de langage développés par OpenAI, basés sur l'architecture Transformer. Le "Génératif" indique leur capacité à créer du nouveau contenu, et "Pré-entraîné" signifie qu'ils ont été formés sur d'énormes quantités de données textuelles avant d'être affinés pour des tâches spécifiques.

Glossary integration

Intégration de glossaire

Ajout d’un vocabulaire spécifique pour guider ou corriger les sorties du modèle.

GPT

GPT

Famille de modèles génératifs préentraînés créés par OpenAI.

Gradient Descent

Descente de gradient

Méthode d’optimisation permettant d’ajuster les poids d’un réseau neuronal.

Grounding

Ancrage dans le réel

Capacité du modèle à produire des réponses basées sur des faits avérés.

Grounding (in LLMs)

Ancrage / Fondement (dans les LLM)

Capacité d'un LLM à relier ses sorties textuelles à des informations vérifiables, des faits du monde réel ou des sources spécifiques, plutôt que de se contenter de générer du texte plausible mais potentiellement incorrect (hallucination). Essentiel pour la fiabilité.

Hallucination

Hallucination

Réponse fausse mais plausible générée par un modèle.

Hugging Face

Hugging Face

Plateforme open source pour le partage et l’utilisation de modèles IA.

Human Feedback

Retour humain

Intervention humaine pour corriger ou guider l’apprentissage d’un modèle.

Human-in-the-loop (HITL)

Humain dans la boucle

Système IA où l’humain participe à la validation, au contrôle ou à l’amélioration des résultats.

Hyperparameter

Hyperparamètre

Paramètre défini avant l’entraînement du modèle (ex : taille du batch, taux d’apprentissage).

In-Context Learning

Apprentissage dans le contexte

Capacité d’un modèle à apprendre à partir des exemples fournis directement dans une requête (prompt).

Inference

Inférence

Utilisation du modèle pour produire une réponse à une question.

Input Layer

Couche d'entrée

 Première couche d'un réseau neuronal qui reçoit les données brutes (les jetons du prompt, par exemple) et les transmet aux couches cachées pour traitement.

Instruction (Prompt)

Instruction (ou Prompt)

Texte ou consigne fournie au modèle pour générer une réponse ciblée.

Instruction tuning

Affinage par instructions

Adaptation du modèle pour répondre à des consignes explicites.

Jailbreaking

Détournement (Jailbreaking)

Technique pour forcer un modèle à produire des réponses qu’il n’est normalement pas censé fournir.

JSON Mode

Mode JSON

Mode de sortie structuré où les réponses du modèle sont formatées en JSON.

Knowledge distillation

Distillation de connaissances

Méthode de compression d’un modèle complexe vers un plus simple, tout en conservant ses performances.

Knowledge grounding

Ancrage des connaissances

Alignement des réponses d’un modèle sur une base de faits ou de données fiables.

K-Shot Learning

Apprentissage K-exemples

Entraînement ou adaptation d’un modèle à partir de K exemples fournis.

Language Model

Modèle de langage

Modèle entraîné à comprendre, générer ou compléter du texte.

Large Language Model (LLM)

Grand modèle de langage

Modèle IA entraîné sur de très grands corpus pour générer ou comprendre du texte.

Latent space

Espace latent

Espace abstrait dans lequel les données sont projetées pour traitement.

Learning Rate

Taux d’apprentissage

Vitesse à laquelle les poids du modèle sont ajustés pendant l’entraînement.

LoRA (Low-Rank Adaptation)

Adaptation à faible rang (LoRA)

Technique légère pour adapter des modèles préentraînés sans modifier tous leurs paramètres.

Loss function

Fonction de perte

Mesure de l’erreur entre la sortie du modèle et la vérité attendue.

Machine Learning

Apprentissage automatique

Domaine de l’IA où les modèles apprennent des données sans être explicitement programmés.

Machine Translation (MT)

Traduction automatique

Utilisation de modèles informatiques pour traduire automatiquement des textes entre plusieurs langues.

Masked Language Modeling

Modélisation de langage masqué

Technique de pré-entraînement où des mots sont masqués aléatoirement dans une phrase, et le modèle doit prédire les mots masqués en se basant sur le contexte environnant. C'est une tâche courante pour entraîner les LLM comme BERT.

Mixture of Experts (MoE)

Mélange d’experts

Architecture qui active dynamiquement les sous-modèles spécialisés selon les besoins.

Model

Modèle

En IA, un programme informatique entraîné qui a appris à reconnaître des motifs dans les données ou à effectuer des tâches spécifiques (comme la génération de texte, la classification, la traduction).

Model Alignment

Alignement de modèle

 Processus visant à faire en sorte qu'un modèle d'IA (en particulier un LLM) se comporte de manière souhaitée, c'est-à-dire qu'il soit utile, inoffensif et honnête, en alignant ses sorties avec les valeurs et les préférences humaines. Souvent réalisé via le RLHF.

Model Card

Fiche d'identité de modèle

Document standardisé qui fournit des informations importantes sur un modèle d'apprentissage automatique, y compris ses performances, les données d'entraînement utilisées, ses limites, ses biais potentiels et son utilisation prévue, pour favoriser la transparence et la responsabilité.

Model Drift

Dérive de modèle

Phénomène où la performance d'un modèle d'IA se détériore avec le temps, généralement parce que les caractéristiques des données d'entrée ou de l'environnement changent par rapport aux données sur lesquelles le modèle a été entraîné.

Multilingual Model

Modèle multilingue

Modèle d'IA capable de traiter ou de générer du texte dans plusieurs langues. Un seul modèle peut traduire entre de nombreuses paires de langues ou comprendre des requêtes dans différentes langues.

Multimodal

Multimodal

Caractérise une IA capable de traiter et/ou de générer des informations provenant de plusieurs types de données ou "modalités" (par exemple, texte, image, audio, vidéo). Un modèle multimodal peut comprendre un prompt combinant texte et image, et générer une réponse en texte ou en image.

Multimodal model

Modèle multimodal

Modèle combinant plusieurs types de données : texte, image, audio, etc.

Natural Language Processing (NLP)

Traitement du langage naturel (TLN)

Champ de l'intelligence artificielle qui permet aux ordinateurs de comprendre, d'interpréter, de manipuler et de générer le langage humain de manière significative. Les LLM sont une avancée majeure dans le TLN.

Neural Machine Translation (NMT)

Traduction automatique neuronale

Approche de la traduction automatique qui utilise de grands réseaux de neurones artificiels (souvent des architectures de type Transformer) pour prédire la séquence de mots la plus probable dans la langue cible, en tenant compte de tout le contexte de la phrase source. C'est la technologie dominante aujourd'hui.

Neural Network

Réseau neuronal

Modèle informatique inspiré de la structure et du fonctionnement du cerveau humain. Composé de couches de "neurones" (nœuds) interconnectés qui traitent les informations. C'est la base de l'apprentissage profond.

Next Token Prediction

Prédiction du prochain jeton

 La tâche fondamentale que réalisent les LLM génératifs. Étant donné une séquence de jetons (le prompt et les jetons générés précédemment), le modèle prédit le jeton le plus probable à suivre.

N-gram

N-gramme

Une séquence contiguë de n éléments (mots ou caractères) d'un texte. Les n-grammes sont utilisés dans divers modèles linguistiques pour capturer le contexte local et la probabilité des séquences.

NLP

TLN (Traitement du Langage Naturel)

Acronyme pour Natural Language Processing.

Normalization

Normalisation

Processus de transformation des données brutes en un format standardisé et plus cohérent, facilitant leur traitement par les modèles d'IA. En PNL, cela peut inclure la mise en minuscule, la suppression de ponctuation, etc.

One-Shot Learning

Apprentissage à un seul coup

Capacité d'un modèle d'IA à apprendre à partir d'un seul exemple ou d'une seule démonstration. Les LLM peuvent souvent montrer des capacités de "one-shot learning" via le prompting, en étant capables d'effectuer une nouvelle tâche après un seul exemple dans la consigne.

Output Layer

Couche de sortie

Dernière couche d'un réseau neuronal qui produit le résultat final du modèle (par exemple, la prédiction du prochain mot dans un LLM, ou la classification dans un modèle de classification).

Overfitting

Surapprentissage

Phénomène où un modèle d'IA apprend trop bien les données d'entraînement, au point de mémoriser le bruit et les spécificités des données d'entraînement, ce qui le rend moins performant sur de nouvelles données non vues.

Parameter

Paramètre

Élément appris pendant l'entraînement, qui définit le comportement du modèle.

Post-editing

Post-édition

Processus de révision et de correction humaine du texte produit par un système de traduction automatique ou un LLM, afin de garantir sa précision, sa fluidité et son adéquation au contexte.

Preprocessing

Prétraitement

Étapes initiales de nettoyage, de transformation et de formatage des données brutes avant qu'elles ne soient utilisées pour entraîner un modèle d'IA. Essentiel pour la qualité du modèle.

Pretrained Model

Modèle pré-entraîné

Un modèle d'apprentissage automatique (comme un LLM) qui a déjà été entraîné sur un très grand ensemble de données générales. Ce modèle peut ensuite être affiné pour des tâches spécifiques.

Pretraining

Pré-entraînement

Processus d'entraînement initial d'un modèle d'IA sur un vaste ensemble de données générales pour lui faire acquérir une compréhension fondamentale des motifs et des structures (par exemple, du langage pour un LLM).

Prompt

Invite / Consigne

Texte d'entrée destiné à guider la réponse du modèle.

Prompt engineering

Conception de prompts

Art de formuler des consignes efficaces pour obtenir des résultats pertinents.

Q-Learning

Apprentissage Q

Algorithme d'apprentissage par renforcement qui permet à un agent d'apprendre la meilleure action à prendre dans un environnement donné pour maximiser une récompense, sans nécessiter de modèle de l'environnement.

Quantization

Quantification

Technique de compression qui réduit la précision numérique des poids et des activations d'un modèle d'IA (passant par exemple de 32 bits à 8 bits). Cela réduit la taille du modèle et accélère son exécution, mais peut affecter légèrement la performance.

Query

Requête / Question

L'entrée (souvent sous forme de texte) donnée à un système d'IA ou à un moteur de recherche pour obtenir une réponse ou un résultat. Pour un LLM, c'est souvent synonyme de prompt.

RAG (Retrieval-Augmented Gen)

Génération augmentée par recherche

Combinaison de recherche documentaire et génération de texte.

Reinforcement Learning

Apprentissage par renforcement

Type d'apprentissage automatique où un agent apprend à prendre des décisions dans un environnement en recevant des récompenses ou des pénalités en fonction de ses actions. C'est utilisé pour aligner les LLM (via RLHF).

Retrieval-Augmented Generation (RAG)

Génération augmentée par la récupération (RAG)

Technique qui combine les capacités de génération de texte d'un LLM avec un système de récupération d'informations. Le LLM recherche des informations pertinentes dans une base de données externe pour ancrer sa réponse et réduire les hallucinations.

Reward Model

Modèle de récompense

Un modèle auxiliaire, souvent utilisé dans le RLHF, qui est entraîné à prédire la "qualité" ou la "préférence humaine" d'une réponse générée par un LLM. Il est ensuite utilisé pour guider l'entraînement par renforcement du LLM principal.

RLHF

Apprentissage par renforcement avec retour humain

Méthode d’entraînement basée sur des préférences humaines.

Rouge Score

Score ROUGE

(Recall-Oriented Understudy for Gisting Evaluation) Métrique utilisée pour évaluer la qualité des résumés ou des textes générés en comparant les n-grammes de la sortie du modèle avec ceux d'un ou plusieurs résumés de référence écrits par des humains.

Scaling Laws

Lois d'échelle

Observations empiriques qui décrivent comment la performance des LLM (et d'autres modèles d'apprentissage profond) s'améliore de manière prévisible à mesure que la taille du modèle, la taille des données d'entraînement et la puissance de calcul augmentent.

Self-attention

Auto-attention

Mécanisme qui permet au modèle de pondérer chaque mot en fonction de sa pertinence.

Self-Supervised Learning

Apprentissage auto-supervisé

Type d'apprentissage automatique où un modèle apprend à partir de données non étiquetées en générant ses propres signaux de supervision. Par exemple, masquer des mots dans une phrase et les prédire est une forme d'apprentissage auto-supervisé utilisée dans le pré-entraînement des LLM.

Semantic Search

Recherche sémantique

Type de recherche qui interprète le sens et l'intention de la requête de l'utilisateur plutôt que de se fier uniquement à la correspondance exacte des mots-clés, permettant des résultats plus pertinents. Les LLM peuvent améliorer considérablement la recherche sémantique.

Sentiment Analysis

Analyse de sentiment

Tâche du TLN qui consiste à déterminer la tonalité émotionnelle (positive, négative, neutre) ou l'opinion exprimée dans un texte.

Softmax

Softmax

Fonction mathématique couramment utilisée dans la couche de sortie des réseaux neuronaux pour convertir une série de valeurs numériques en une distribution de probabilité. Dans un LLM, elle transforme les scores de chaque jeton possible en probabilités de sélection pour le prochain jeton.

Supervised fine-tuning

Ajustement supervisé

Réentraînement d’un modèle avec des données étiquetées.

Supervised Learning

Apprentissage supervisé

Type d'apprentissage automatique où le modèle apprend à partir d'un ensemble de données étiquetées (c'est-à-dire que chaque entrée est associée à la bonne sortie). La majorité des tâches de classification et de régression en IA sont basées sur l'apprentissage supervisé.

Temperature

Température

Paramètre qui ajuste la diversité des réponses générées.

Terminology extraction

Extraction terminologique

Processus automatique ou assisté par ordinateur d'identification et d'extraction de termes spécifiques à un domaine (vocabulaire technique, jargon) à partir de corpus de texte. Utile pour la traduction spécialisée.

Text generation

Génération de texte

Capacité d'un système d'IA à produire du nouveau texte qui soit cohérent, pertinent et souvent créatif, en réponse à un prompt. C'est la fonction principale des LLM génératifs.

Text segmentation

Segmentation de texte

Processus de division d'un texte en unités plus petites et significatives, comme des phrases, des paragraphes ou des jetons, pour faciliter le traitement par un modèle d'IA.

Text Token

Jeton de texte

Voir Token.

Token

Jeton

Unité élémentaire (mot ou fragment de mot) traitée par le modèle.

Tokenization

Tokenisation

Processus de découpage d'une séquence de texte en unités plus petites appelées jetons (mots, sous-mots, caractères, symboles). C'est la première étape du traitement de texte pour les LLM.

Tokenizer

Tokeniseur

Outil qui découpe un texte en unités (tokens) compréhensibles par le modèle.

Top-K Sampling

Échantillonnage Top-K

Technique de génération de texte dans les LLM où le modèle ne considère que les K prochains jetons les plus probables à un moment donné, et échantillonne le prochain jeton parmi ceux-ci. Cela aide à éviter la répétition tout en maintenant la pertinence.

Top-P Sampling (Nucleus Sampling)

Échantillonnage Top-P (Échantillonnage par noyau)

Technique de génération de texte plus flexible que le Top-K, où le modèle ne considère que le plus petit ensemble de prochains jetons dont la somme des probabilités dépasse un seuil P donné. Cela permet une plus grande diversité tout en évitant les options très improbables.

Training

Entraînement

Processus par lequel un modèle d'IA apprend à partir de données, en ajustant ses poids et ses paramètres pour minimiser les erreurs et améliorer ses performances sur la tâche visée.

Training Data

Données d'entraînement

L'ensemble des données (texte, images, etc.) utilisées pour entraîner un modèle d'IA. La qualité, la quantité et la diversité des données d'entraînement sont cruciales pour la performance du modèle.

Transfer Learning

Apprentissage par transfert

Technique où un modèle entraîné sur une tâche (ou un vaste ensemble de données) est réutilisé comme point de départ pour une tâche différente mais liée. Le pré-entraînement suivi de l'affinement est un exemple clé d'apprentissage par transfert dans les LLM.

Transformer

Transformeur

Architecture de réseau neuronal introduite en 2017, qui est devenue la base des modèles d'IA les plus performants en PNL, y compris tous les LLM modernes. Elle repose fortement sur le mécanisme d'attention et permet un traitement parallèle efficace des séquences.

Tree-of-Thought (ToT)

Arbre de pensée

Extension du Chain-of-Thought Prompting où le modèle explore plusieurs chemins de raisonnement possibles, comme les branches d'un arbre, évalue chaque chemin, et choisit le meilleur pour arriver à une solution plus robuste.

Underfitting

Sous-apprentissage

Phénomène où un modèle d'IA est trop simple ou n'a pas été suffisamment entraîné pour capturer les motifs sous-jacents dans les données, ce qui le rend peu performant à la fois sur les données d'entraînement et sur les nouvelles données.

Unsupervised Learning

Apprentissage non supervisé

Type d'apprentissage automatique où le modèle apprend à partir de données non étiquetées, en découvrant des structures, des motifs ou des relations cachées dans les données sans intervention humaine directe pour fournir les bonnes réponses.

Upsampling

Suréchantillonnage

Technique utilisée dans la préparation des données pour augmenter le nombre d'échantillons de la classe minoritaire dans un ensemble de données déséquilibré, afin d'améliorer la performance du modèle pour cette classe.

Validation

Validation

Processus d'évaluation de la performance d'un modèle d'IA sur des données qu'il n'a pas vues pendant l'entraînement, afin de s'assurer qu'il généralise bien et n'est pas en surapprentissage.

Validation Set

Jeu de validation

Un sous-ensemble des données utilisées pendant l'entraînement d'un modèle d'IA, spécifiquement réservé pour évaluer et ajuster le modèle à intervalles réguliers sans utiliser les données du jeu de test final.

Vector database

Base de données vectorielle

Système qui permet de stocker et interroger des représentations vectorielles de données.

Vision-Language Model (VLM)

Modèle Vision-Langage (VLM)

Type de modèle multimodal capable de comprendre et de générer du contenu à partir de données visuelles (images, vidéos) et de données textuelles. Il peut par exemple décrire une image ou générer une image à partir d'une description.

Vocabulary

Vocabulaire

L'ensemble unique de tous les jetons (mots, sous-mots) que le modèle d'IA a rencontrés pendant son entraînement et qu'il est capable de comprendre ou de générer.

Weight

Poids

Des valeurs numériques dans un réseau neuronal qui sont ajustées pendant le processus d'entraînement. Ils déterminent la force des connexions entre les neurones et l'importance relative des différentes entrées pour la prédiction finale du modèle.

Word Embedding

Plongement de mot

Une forme spécifique de plongement où chaque mot est représenté par un vecteur numérique dense qui capture son sens sémantique et ses relations avec d'autres mots.

Word2Vec

Word2Vec

Famille de modèles (comme skip-gram et CBOW) qui sont utilisés pour créer des plongements de mots efficaces en apprenant des représentations vectorielles de mots à partir de grands corpus de texte.

Zero-Shot Learning

Apprentissage à zéro coup

Capacité d'un modèle d'IA à effectuer une tâche ou à reconnaître une catégorie pour laquelle il n'a reçu aucun exemple explicite pendant l'entraînement. Les LLM peuvent souvent réaliser du "zero-shot learning" simplement en recevant des instructions claires dans le prompt.

Zero-shot translation

Traduction à zéro coup

Capacité d'un modèle de traduction automatique multilingue à traduire directement entre deux langues sans avoir été explicitement entraîné sur des paires de textes parallèles pour ces deux langues. Le modèle déduit la traduction via une langue pivot interne ou une compréhension linguistique générale.

Z-Score

Score Z

Une mesure statistique qui indique le nombre d'écarts-types qu'une valeur donnée est éloignée de la moyenne d'un ensemble de données. Utilisé dans l'analyse de données pour normaliser et comparer des points de données.

Co-auteurs : ChatGPT, Gemini, DeepSeek, Glok, Perplexity, Mistral, Claude et le soussigné :

P.S. Si vous trouvez des erreurs ou souhaitez suggérer des termes à ajouter, n'hésitez pas à me le signaler en commentaire. Merci d'avance 😀