jeudi 3 juillet 2025

IA : glossaire EN - FR de l'intelligence artificielle

page IA

Glossaire EN → FR de 156 termes liés à l’IA

Adversarial Machine Learning

Apprentissage machine antagoniste

Technique consistant à tromper un modèle avec des entrées volontairement manipulées.

Agent

Agent autonome

Programme capable d'agir de manière autonome pour atteindre un objectif donné.

AGI (Artificial General Intelligence)

Intelligence Artificielle Générale

IA hypothétique dotée de compétences générales similaires à celles des humains.

AI

IA - Intelligence artificielle

Discipline visant à créer des systèmes capables d'accomplir des tâches habituellement humaines.

Algorithm

Algorithme

Suite d'instructions permettant de résoudre un problème ou accomplir une tâche.

Alignment

Alignement

Processus d’ajustement d’un modèle pour qu’il réponde aux attentes humaines.

Annotation

Annotation

Ajout d’étiquettes ou de métadonnées à des données pour entraîner un modèle.

API (Application Programming Interface)

Interface de programmation

Outil permettant à différents logiciels de communiquer entre eux.

Artificial Intelligence (AI)

Intelligence artificielle

Voir "AI" ci-dessus.

Attention

Attention

Mécanisme permettant à un modèle de se concentrer sur certaines parties d'une entrée.

Attention mechanism

Mécanisme d’attention

Système qui permet au modèle de se concentrer sur les parties importantes d’un texte.

Autoencoder

Autoencodeur

Réseau de neurones non supervisé utilisé pour l'encodage et la reconstruction de données.

Auto-regressive model

Modèle auto-régressif

Génère du texte mot par mot, en se basant sur les mots déjà produits.

Backpropagation

Rétropropagation

Méthode d'apprentissage consistant à ajuster les poids en fonction de l'erreur.

Beam Search

Recherche en faisceau

Méthode de décodage qui explore plusieurs chemins à la fois pour choisir la sortie la plus probable.

Benchmark

Référentiel d’évaluation

Test standardisé pour comparer les performances des modèles.

BERT

BERT

Modèle de langage bidirectionnel préentrainé pour la compréhension du texte.

Bias

Biais

Distorsion systématique dans les résultats, souvent issue des données d’entraînement.

Bias (in AI/data)

Biais (en IA/données)

 Distorsion ou erreur systématique dans les résultats d'un modèle d'IA, souvent due à des données d'entraînement non représentatives, incomplètes ou reflétant des préjugés sociaux. Les LLM peuvent hériter et amplifier ces biais.

Big Data

Mégadonnées

Ensemble de données volumineuses, complexes, traitées à l'aide de technologies spécifiques.

Billion Parameters

Milliards de paramètres

Unité de mesure courante de la taille et de la complexité d'un LLM. Plus un modèle a de paramètres, plus il est généralement capable de comprendre et de générer du langage complexe, mais plus il est coûteux à entraîner et à exécuter (ex. GPT-3 avait 175 milliards de paramètres).

BLEU Score

Score BLEU

Métrique d’évaluation de la qualité d’une traduction automatique.

Chain-of-Thought (CoT)

Chaîne de raisonnement

Méthode où le raisonnement du modèle est explicité pas à pas (raisonnement logique)

Chain-of-Thought (CoT) Prompting

Prompting "chaîne de pensée"

Technique d'ingénierie de prompt qui consiste à inciter le LLM à "raisonner" étape par étape, en décomposant un problème complexe en une série d'étapes intermédiaires avant de donner la réponse finale. Cela améliore souvent la précision et la cohérence des réponses.

Chatbot

Agent conversationnel

Programme conçu pour interagir avec des humains via du texte.

ChatGPT

ChatGPT

Modèle de dialogue développé par OpenAI, basé sur GPT.

Checkpoint

Point de sauvegarde

État enregistré d'un modèle à un moment donné de l'entraînement.

Constitutional AI

IA constitutionnelle

IA conçue pour respecter des règles éthiques définies dans son apprentissage.

Context window

Fenêtre de contexte

Quantité maximale d’information que le modèle peut "voir" en une fois.

Convolutional Neural Network (CNN)

Réseau de neurones convolutifs

Réseau utilisé surtout pour le traitement d’images et la reconnaissance de formes.

Corpus

Corpus

Collection de textes utilisés pour l’apprentissage ou l’évaluation d’un modèle.

Data annotation

Annotation de données

Ajout de balises ou labels sur les données pour entraîner un modèle.

Data augmentation

Augmentation de données

Techniques pour créer artificiellement de nouvelles données à partir de celles existantes.

Data curation

Curation de données

Sélection rigoureuse de données utiles à l’entraînement.

Data mining

Exploration de données

Extraction de connaissances à partir de grandes bases de données.

Data poisoning

Empoisonnement de données

Manipulation malveillante de données pour compromettre un modèle.

Dataset

Jeu de données

Collection de données utilisée pour entraîner ou tester un modèle.

Decoder

Décodeur

Partie d'un modèle qui génère une sortie à partir de représentations internes.

Decoding

Décodage

Conversion de la sortie du modèle en texte compréhensible.

Deep Learning (DL)

Apprentissage profond

Branche du machine learning utilisant des réseaux neuronaux profonds.

Diffusion model

Modèle de diffusion

Modèle génératif qui transforme du bruit en données structurées (texte, image...).

Dropout

Abandon

Technique réduisant le surapprentissage en désactivant des neurones aléatoirement.

Embedding

Représentation vectorielle

Représentation numérique d’un mot ou concept dans un espace mathématique.

Embeddings (Word/Sentence/Token)

Plongements (de mots/phrases/jetons)

Représentations vectorielles denses (listes de nombres) de mots, de phrases ou de jetons dans un espace multidimensionnel. Ces vecteurs capturent le sens sémantique et les relations entre les éléments linguistiques, permettant aux modèles d'IA de "comprendre" le langage.

Emergent Abilities

Compétences émergentes

Capacits apparaissant à grande échelle et non prévues à petite échelle d'entraînement.

Encoder

Encodeur

Partie du modèle qui transforme un texte en vecteurs.

Epoch

Époque

Passage complet d'un modèle sur l'ensemble du jeu de données d'entraînement.

Evaluation

Évaluation

Mesure des performances d'un modèle sur des tâches ou données spécifiques.

Evaluation metric

Métrique d’évaluation

Indicateur chiffré servant à comparer différents modèles.

Few-shot learning

Apprentissage avec peu d’exemples

Capacité à généraliser à partir de quelques exemples.

Fine-tuning

Ajustement / Réglage fin

Spécialisation d’un modèle généraliste sur une tâche ou un domaine.

Foundation model

Modèle fondamental

Modèle généraliste servant de base à d’autres applications.

Frozen Model

Modèle gelé

Modèle dont les poids ne sont plus modifiés lors d'un apprentissage secondaire.

Generative AI

IA générative

IA capable de produire du contenu (texte, image, code…).

Generative model

Modèle génératif

Modèle IA capable de produire du contenu (texte, image, son...).

Generative Pre-trained Transformer (GPT)

Transformeur Génératif Pré-entraîné (GPT)

Famille de grands modèles de langage développés par OpenAI, basés sur l'architecture Transformer. Le "Génératif" indique leur capacité à créer du nouveau contenu, et "Pré-entraîné" signifie qu'ils ont été formés sur d'énormes quantités de données textuelles avant d'être affinés pour des tâches spécifiques.

Glossary integration

Intégration de glossaire

Ajout d’un vocabulaire spécifique pour guider ou corriger les sorties du modèle.

GPT

GPT

Famille de modèles génératifs préentraînés créés par OpenAI.

Gradient Descent

Descente de gradient

Méthode d’optimisation permettant d’ajuster les poids d’un réseau neuronal.

Grounding

Ancrage dans le réel

Capacité du modèle à produire des réponses basées sur des faits avérés.

Grounding (in LLMs)

Ancrage / Fondement (dans les LLM)

Capacité d'un LLM à relier ses sorties textuelles à des informations vérifiables, des faits du monde réel ou des sources spécifiques, plutôt que de se contenter de générer du texte plausible mais potentiellement incorrect (hallucination). Essentiel pour la fiabilité.

Hallucination

Hallucination

Réponse fausse mais plausible générée par un modèle.

Hugging Face

Hugging Face

Plateforme open source pour le partage et l’utilisation de modèles IA.

Human Feedback

Retour humain

Intervention humaine pour corriger ou guider l’apprentissage d’un modèle.

Human-in-the-loop (HITL)

Humain dans la boucle

Système IA où l’humain participe à la validation, au contrôle ou à l’amélioration des résultats.

Hyperparameter

Hyperparamètre

Paramètre défini avant l’entraînement du modèle (ex : taille du batch, taux d’apprentissage).

In-Context Learning

Apprentissage dans le contexte

Capacité d’un modèle à apprendre à partir des exemples fournis directement dans une requête (prompt).

Inference

Inférence

Utilisation du modèle pour produire une réponse à une question.

Input Layer

Couche d'entrée

 Première couche d'un réseau neuronal qui reçoit les données brutes (les jetons du prompt, par exemple) et les transmet aux couches cachées pour traitement.

Instruction (Prompt)

Instruction (ou Prompt)

Texte ou consigne fournie au modèle pour générer une réponse ciblée.

Instruction tuning

Affinage par instructions

Adaptation du modèle pour répondre à des consignes explicites.

Jailbreaking

Détournement (Jailbreaking)

Technique pour forcer un modèle à produire des réponses qu’il n’est normalement pas censé fournir.

JSON Mode

Mode JSON

Mode de sortie structuré où les réponses du modèle sont formatées en JSON.

Knowledge distillation

Distillation de connaissances

Méthode de compression d’un modèle complexe vers un plus simple, tout en conservant ses performances.

Knowledge grounding

Ancrage des connaissances

Alignement des réponses d’un modèle sur une base de faits ou de données fiables.

K-Shot Learning

Apprentissage K-exemples

Entraînement ou adaptation d’un modèle à partir de K exemples fournis.

Language Model

Modèle de langage

Modèle entraîné à comprendre, générer ou compléter du texte.

Large Language Model (LLM)

Grand modèle de langage

Modèle IA entraîné sur de très grands corpus pour générer ou comprendre du texte.

Latent space

Espace latent

Espace abstrait dans lequel les données sont projetées pour traitement.

Learning Rate

Taux d’apprentissage

Vitesse à laquelle les poids du modèle sont ajustés pendant l’entraînement.

LoRA (Low-Rank Adaptation)

Adaptation à faible rang (LoRA)

Technique légère pour adapter des modèles préentraînés sans modifier tous leurs paramètres.

Loss function

Fonction de perte

Mesure de l’erreur entre la sortie du modèle et la vérité attendue.

Machine Learning

Apprentissage automatique

Domaine de l’IA où les modèles apprennent des données sans être explicitement programmés.

Machine Translation (MT)

Traduction automatique

Utilisation de modèles informatiques pour traduire automatiquement des textes entre plusieurs langues.

Masked Language Modeling

Modélisation de langage masqué

Technique de pré-entraînement où des mots sont masqués aléatoirement dans une phrase, et le modèle doit prédire les mots masqués en se basant sur le contexte environnant. C'est une tâche courante pour entraîner les LLM comme BERT.

Mixture of Experts (MoE)

Mélange d’experts

Architecture qui active dynamiquement les sous-modèles spécialisés selon les besoins.

Model

Modèle

En IA, un programme informatique entraîné qui a appris à reconnaître des motifs dans les données ou à effectuer des tâches spécifiques (comme la génération de texte, la classification, la traduction).

Model Alignment

Alignement de modèle

 Processus visant à faire en sorte qu'un modèle d'IA (en particulier un LLM) se comporte de manière souhaitée, c'est-à-dire qu'il soit utile, inoffensif et honnête, en alignant ses sorties avec les valeurs et les préférences humaines. Souvent réalisé via le RLHF.

Model Card

Fiche d'identité de modèle

Document standardisé qui fournit des informations importantes sur un modèle d'apprentissage automatique, y compris ses performances, les données d'entraînement utilisées, ses limites, ses biais potentiels et son utilisation prévue, pour favoriser la transparence et la responsabilité.

Model Drift

Dérive de modèle

Phénomène où la performance d'un modèle d'IA se détériore avec le temps, généralement parce que les caractéristiques des données d'entrée ou de l'environnement changent par rapport aux données sur lesquelles le modèle a été entraîné.

Multilingual Model

Modèle multilingue

Modèle d'IA capable de traiter ou de générer du texte dans plusieurs langues. Un seul modèle peut traduire entre de nombreuses paires de langues ou comprendre des requêtes dans différentes langues.

Multimodal

Multimodal

Caractérise une IA capable de traiter et/ou de générer des informations provenant de plusieurs types de données ou "modalités" (par exemple, texte, image, audio, vidéo). Un modèle multimodal peut comprendre un prompt combinant texte et image, et générer une réponse en texte ou en image.

Multimodal model

Modèle multimodal

Modèle combinant plusieurs types de données : texte, image, audio, etc.

Natural Language Processing (NLP)

Traitement du langage naturel (TLN)

Champ de l'intelligence artificielle qui permet aux ordinateurs de comprendre, d'interpréter, de manipuler et de générer le langage humain de manière significative. Les LLM sont une avancée majeure dans le TLN.

Neural Machine Translation (NMT)

Traduction automatique neuronale

Approche de la traduction automatique qui utilise de grands réseaux de neurones artificiels (souvent des architectures de type Transformer) pour prédire la séquence de mots la plus probable dans la langue cible, en tenant compte de tout le contexte de la phrase source. C'est la technologie dominante aujourd'hui.

Neural Network

Réseau neuronal

Modèle informatique inspiré de la structure et du fonctionnement du cerveau humain. Composé de couches de "neurones" (nœuds) interconnectés qui traitent les informations. C'est la base de l'apprentissage profond.

Next Token Prediction

Prédiction du prochain jeton

 La tâche fondamentale que réalisent les LLM génératifs. Étant donné une séquence de jetons (le prompt et les jetons générés précédemment), le modèle prédit le jeton le plus probable à suivre.

N-gram

N-gramme

Une séquence contiguë de n éléments (mots ou caractères) d'un texte. Les n-grammes sont utilisés dans divers modèles linguistiques pour capturer le contexte local et la probabilité des séquences.

NLP

TLN (Traitement du Langage Naturel)

Acronyme pour Natural Language Processing.

Normalization

Normalisation

Processus de transformation des données brutes en un format standardisé et plus cohérent, facilitant leur traitement par les modèles d'IA. En PNL, cela peut inclure la mise en minuscule, la suppression de ponctuation, etc.

One-Shot Learning

Apprentissage à un seul coup

Capacité d'un modèle d'IA à apprendre à partir d'un seul exemple ou d'une seule démonstration. Les LLM peuvent souvent montrer des capacités de "one-shot learning" via le prompting, en étant capables d'effectuer une nouvelle tâche après un seul exemple dans la consigne.

Output Layer

Couche de sortie

Dernière couche d'un réseau neuronal qui produit le résultat final du modèle (par exemple, la prédiction du prochain mot dans un LLM, ou la classification dans un modèle de classification).

Overfitting

Surapprentissage

Phénomène où un modèle d'IA apprend trop bien les données d'entraînement, au point de mémoriser le bruit et les spécificités des données d'entraînement, ce qui le rend moins performant sur de nouvelles données non vues.

Parameter

Paramètre

Élément appris pendant l'entraînement, qui définit le comportement du modèle.

Post-editing

Post-édition

Processus de révision et de correction humaine du texte produit par un système de traduction automatique ou un LLM, afin de garantir sa précision, sa fluidité et son adéquation au contexte.

Preprocessing

Prétraitement

Étapes initiales de nettoyage, de transformation et de formatage des données brutes avant qu'elles ne soient utilisées pour entraîner un modèle d'IA. Essentiel pour la qualité du modèle.

Pretrained Model

Modèle pré-entraîné

Un modèle d'apprentissage automatique (comme un LLM) qui a déjà été entraîné sur un très grand ensemble de données générales. Ce modèle peut ensuite être affiné pour des tâches spécifiques.

Pretraining

Pré-entraînement

Processus d'entraînement initial d'un modèle d'IA sur un vaste ensemble de données générales pour lui faire acquérir une compréhension fondamentale des motifs et des structures (par exemple, du langage pour un LLM).

Prompt

Invite / Consigne

Texte d'entrée destiné à guider la réponse du modèle.

Prompt engineering

Conception de prompts

Art de formuler des consignes efficaces pour obtenir des résultats pertinents.

Q-Learning

Apprentissage Q

Algorithme d'apprentissage par renforcement qui permet à un agent d'apprendre la meilleure action à prendre dans un environnement donné pour maximiser une récompense, sans nécessiter de modèle de l'environnement.

Quantization

Quantification

Technique de compression qui réduit la précision numérique des poids et des activations d'un modèle d'IA (passant par exemple de 32 bits à 8 bits). Cela réduit la taille du modèle et accélère son exécution, mais peut affecter légèrement la performance.

Query

Requête / Question

L'entrée (souvent sous forme de texte) donnée à un système d'IA ou à un moteur de recherche pour obtenir une réponse ou un résultat. Pour un LLM, c'est souvent synonyme de prompt.

RAG (Retrieval-Augmented Gen)

Génération augmentée par recherche

Combinaison de recherche documentaire et génération de texte.

Reinforcement Learning

Apprentissage par renforcement

Type d'apprentissage automatique où un agent apprend à prendre des décisions dans un environnement en recevant des récompenses ou des pénalités en fonction de ses actions. C'est utilisé pour aligner les LLM (via RLHF).

Retrieval-Augmented Generation (RAG)

Génération augmentée par la récupération (RAG)

Technique qui combine les capacités de génération de texte d'un LLM avec un système de récupération d'informations. Le LLM recherche des informations pertinentes dans une base de données externe pour ancrer sa réponse et réduire les hallucinations.

Reward Model

Modèle de récompense

Un modèle auxiliaire, souvent utilisé dans le RLHF, qui est entraîné à prédire la "qualité" ou la "préférence humaine" d'une réponse générée par un LLM. Il est ensuite utilisé pour guider l'entraînement par renforcement du LLM principal.

RLHF

Apprentissage par renforcement avec retour humain

Méthode d’entraînement basée sur des préférences humaines.

Rouge Score

Score ROUGE

(Recall-Oriented Understudy for Gisting Evaluation) Métrique utilisée pour évaluer la qualité des résumés ou des textes générés en comparant les n-grammes de la sortie du modèle avec ceux d'un ou plusieurs résumés de référence écrits par des humains.

Scaling Laws

Lois d'échelle

Observations empiriques qui décrivent comment la performance des LLM (et d'autres modèles d'apprentissage profond) s'améliore de manière prévisible à mesure que la taille du modèle, la taille des données d'entraînement et la puissance de calcul augmentent.

Self-attention

Auto-attention

Mécanisme qui permet au modèle de pondérer chaque mot en fonction de sa pertinence.

Self-Supervised Learning

Apprentissage auto-supervisé

Type d'apprentissage automatique où un modèle apprend à partir de données non étiquetées en générant ses propres signaux de supervision. Par exemple, masquer des mots dans une phrase et les prédire est une forme d'apprentissage auto-supervisé utilisée dans le pré-entraînement des LLM.

Semantic Search

Recherche sémantique

Type de recherche qui interprète le sens et l'intention de la requête de l'utilisateur plutôt que de se fier uniquement à la correspondance exacte des mots-clés, permettant des résultats plus pertinents. Les LLM peuvent améliorer considérablement la recherche sémantique.

Sentiment Analysis

Analyse de sentiment

Tâche du TLN qui consiste à déterminer la tonalité émotionnelle (positive, négative, neutre) ou l'opinion exprimée dans un texte.

Softmax

Softmax

Fonction mathématique couramment utilisée dans la couche de sortie des réseaux neuronaux pour convertir une série de valeurs numériques en une distribution de probabilité. Dans un LLM, elle transforme les scores de chaque jeton possible en probabilités de sélection pour le prochain jeton.

Supervised fine-tuning

Ajustement supervisé

Réentraînement d’un modèle avec des données étiquetées.

Supervised Learning

Apprentissage supervisé

Type d'apprentissage automatique où le modèle apprend à partir d'un ensemble de données étiquetées (c'est-à-dire que chaque entrée est associée à la bonne sortie). La majorité des tâches de classification et de régression en IA sont basées sur l'apprentissage supervisé.

Temperature

Température

Paramètre qui ajuste la diversité des réponses générées.

Terminology extraction

Extraction terminologique

Processus automatique ou assisté par ordinateur d'identification et d'extraction de termes spécifiques à un domaine (vocabulaire technique, jargon) à partir de corpus de texte. Utile pour la traduction spécialisée.

Text generation

Génération de texte

Capacité d'un système d'IA à produire du nouveau texte qui soit cohérent, pertinent et souvent créatif, en réponse à un prompt. C'est la fonction principale des LLM génératifs.

Text segmentation

Segmentation de texte

Processus de division d'un texte en unités plus petites et significatives, comme des phrases, des paragraphes ou des jetons, pour faciliter le traitement par un modèle d'IA.

Text Token

Jeton de texte

Voir Token.

Token

Jeton

Unité élémentaire (mot ou fragment de mot) traitée par le modèle.

Tokenization

Tokenisation

Processus de découpage d'une séquence de texte en unités plus petites appelées jetons (mots, sous-mots, caractères, symboles). C'est la première étape du traitement de texte pour les LLM.

Tokenizer

Tokeniseur

Outil qui découpe un texte en unités (tokens) compréhensibles par le modèle.

Top-K Sampling

Échantillonnage Top-K

Technique de génération de texte dans les LLM où le modèle ne considère que les K prochains jetons les plus probables à un moment donné, et échantillonne le prochain jeton parmi ceux-ci. Cela aide à éviter la répétition tout en maintenant la pertinence.

Top-P Sampling (Nucleus Sampling)

Échantillonnage Top-P (Échantillonnage par noyau)

Technique de génération de texte plus flexible que le Top-K, où le modèle ne considère que le plus petit ensemble de prochains jetons dont la somme des probabilités dépasse un seuil P donné. Cela permet une plus grande diversité tout en évitant les options très improbables.

Training

Entraînement

Processus par lequel un modèle d'IA apprend à partir de données, en ajustant ses poids et ses paramètres pour minimiser les erreurs et améliorer ses performances sur la tâche visée.

Training Data

Données d'entraînement

L'ensemble des données (texte, images, etc.) utilisées pour entraîner un modèle d'IA. La qualité, la quantité et la diversité des données d'entraînement sont cruciales pour la performance du modèle.

Transfer Learning

Apprentissage par transfert

Technique où un modèle entraîné sur une tâche (ou un vaste ensemble de données) est réutilisé comme point de départ pour une tâche différente mais liée. Le pré-entraînement suivi de l'affinement est un exemple clé d'apprentissage par transfert dans les LLM.

Transformer

Transformeur

Architecture de réseau neuronal introduite en 2017, qui est devenue la base des modèles d'IA les plus performants en PNL, y compris tous les LLM modernes. Elle repose fortement sur le mécanisme d'attention et permet un traitement parallèle efficace des séquences.

Tree-of-Thought (ToT)

Arbre de pensée

Extension du Chain-of-Thought Prompting où le modèle explore plusieurs chemins de raisonnement possibles, comme les branches d'un arbre, évalue chaque chemin, et choisit le meilleur pour arriver à une solution plus robuste.

Underfitting

Sous-apprentissage

Phénomène où un modèle d'IA est trop simple ou n'a pas été suffisamment entraîné pour capturer les motifs sous-jacents dans les données, ce qui le rend peu performant à la fois sur les données d'entraînement et sur les nouvelles données.

Unsupervised Learning

Apprentissage non supervisé

Type d'apprentissage automatique où le modèle apprend à partir de données non étiquetées, en découvrant des structures, des motifs ou des relations cachées dans les données sans intervention humaine directe pour fournir les bonnes réponses.

Upsampling

Suréchantillonnage

Technique utilisée dans la préparation des données pour augmenter le nombre d'échantillons de la classe minoritaire dans un ensemble de données déséquilibré, afin d'améliorer la performance du modèle pour cette classe.

Validation

Validation

Processus d'évaluation de la performance d'un modèle d'IA sur des données qu'il n'a pas vues pendant l'entraînement, afin de s'assurer qu'il généralise bien et n'est pas en surapprentissage.

Validation Set

Jeu de validation

Un sous-ensemble des données utilisées pendant l'entraînement d'un modèle d'IA, spécifiquement réservé pour évaluer et ajuster le modèle à intervalles réguliers sans utiliser les données du jeu de test final.

Vector database

Base de données vectorielle

Système qui permet de stocker et interroger des représentations vectorielles de données.

Vision-Language Model (VLM)

Modèle Vision-Langage (VLM)

Type de modèle multimodal capable de comprendre et de générer du contenu à partir de données visuelles (images, vidéos) et de données textuelles. Il peut par exemple décrire une image ou générer une image à partir d'une description.

Vocabulary

Vocabulaire

L'ensemble unique de tous les jetons (mots, sous-mots) que le modèle d'IA a rencontrés pendant son entraînement et qu'il est capable de comprendre ou de générer.

Weight

Poids

Des valeurs numériques dans un réseau neuronal qui sont ajustées pendant le processus d'entraînement. Ils déterminent la force des connexions entre les neurones et l'importance relative des différentes entrées pour la prédiction finale du modèle.

Word Embedding

Plongement de mot

Une forme spécifique de plongement où chaque mot est représenté par un vecteur numérique dense qui capture son sens sémantique et ses relations avec d'autres mots.

Word2Vec

Word2Vec

Famille de modèles (comme skip-gram et CBOW) qui sont utilisés pour créer des plongements de mots efficaces en apprenant des représentations vectorielles de mots à partir de grands corpus de texte.

Zero-Shot Learning

Apprentissage à zéro coup

Capacité d'un modèle d'IA à effectuer une tâche ou à reconnaître une catégorie pour laquelle il n'a reçu aucun exemple explicite pendant l'entraînement. Les LLM peuvent souvent réaliser du "zero-shot learning" simplement en recevant des instructions claires dans le prompt.

Zero-shot translation

Traduction à zéro coup

Capacité d'un modèle de traduction automatique multilingue à traduire directement entre deux langues sans avoir été explicitement entraîné sur des paires de textes parallèles pour ces deux langues. Le modèle déduit la traduction via une langue pivot interne ou une compréhension linguistique générale.

Z-Score

Score Z

Une mesure statistique qui indique le nombre d'écarts-types qu'une valeur donnée est éloignée de la moyenne d'un ensemble de données. Utilisé dans l'analyse de données pour normaliser et comparer des points de données.

Co-auteurs : ChatGPT, Gemini, DeepSeek, Glok, Perplexity, Mistral, Claude et le soussigné :

P.S. Si vous trouvez des erreurs ou souhaitez suggérer des termes à ajouter, n'hésitez pas à me le signaler en commentaire. Merci d'avance 😀

IA : où sont les formateurs ?

page IA

Il y a quelques jours, j'ai reçu une offre de travail d'un LSP en quête d'un responsable linguistique dans le cadre d'un projet de longue durée en langue française. Caractéristiques minimales recherchées pour le profil :

  • au moins une décennie d’expérience avérée dans le domaine linguistique, en gestion de projets, encadrement d’équipes, d'aptitudes à la communication, de disponibilité sur le long terme, etc.
  • être expérimenté dans les projets liés à l’intelligence artificielle, incluant la création de prompts ainsi que la génération et la régénération sur de grands modèles de langage (LLM)

D'où ma question : quel professionnel, en 2025, maîtrise un tel éventail de compétences ?

*

Selon une étude McKinsey publiée le 12 mars 2025, 78 % des sondés affirmaient que leur organisation utilisait l'IA fin 2024 / début 2025, contre 72 % début 2024 et 55 % un an auparavant. Quant à l'IA générative, son utilisation est passée de 33% en 2023 à plus de 71% en 2024, aucun pourcentage n'étant fourni pour 2025.

En clair, ces chiffres nous montrent que 2023 est l'année où débute l'adoption à grande échelle de l'intelligence artificielle, désormais inarrêtable. Or il est tout aussi évident que le nombre de formateurs qualifiés n'a pas suivi cette même progression exponentielle, et que, vu la rapide augmentation des emplois nécessitant des compétences en intelligence artificielle, on s'oriente vers une pénurie de formateurs.

D'après l'OCDE :

L'une des principales raisons des pénuries de compétences est le rythme rapide de l'évolution technologique. Les technologies émergentes telles que l'intelligence artificielle nécessitent une main-d'œuvre qui possède les connaissances et l'expertise nécessaires pour développer, mettre en œuvre et entretenir ces systèmes. Cependant, les établissements d'enseignement et les programmes de formation peuvent avoir du mal à suivre l'évolution des exigences du marché du travail, ce qui entraîne une pénurie de travailleurs qualifiés.

Les enquêtes de l'OCDE sur l'IA menées auprès des employeurs montrent que le manque de compétences est actuellement le deuxième obstacle le plus important à l'adoption de l'IA après le coût, bien plus important que la réglementation gouvernementale ou une réticence générale à l'égard de la technologie.


Le cadre de la situation est donc tracé.

*

Pour faire simple, il y a essentiellement trois types de formations en IA : 

  1. Formations de base (initiation / sensibilisation pour non-spécialistes, managers, professionnels de tous horizons et secteurs)
  2. Formations techniques (pour développeurs, data scientists, ingénieurs)
  3. Formations métiers spécialisées (pour des professionnels d'un domaine spécifique)

Personnellement, je m'arrête au point 1. Car après avoir écrit près de 60 000 mots en moins de trois mois sur l'intelligence artificielle, je me sens tout à fait capable d'assurer une formation de base sur le sujet, et notamment sur la création de prompts (multilingues), en ligne ou en présentiel ! Ainsi qu'en matière de génération et de régénération sur de grands modèles de langage (LLM) tels que ChatGPT, Grok, Gemini, Claude, Perplexity, DeepSeek, Mistral ou autres :

Génération : désigne le processus par lequel un LLM produit du texte en réponse à une requête (prompt) ou une tâche donnée. Le modèle utilise ses connaissances apprises lors de l'entraînement pour générer des phrases ou des paragraphes cohérents, en s'appuyant sur des probabilités statistiques pour prédire les mots suivants.

Régénération : fait généralement référence à une sorte d'itération, une nouvelle tentative de génération de texte pour une même requête, souvent pour obtenir un résultat différent ou amélioré. Utile pour affiner une réponse ou explorer d'autres formulations.

Je mettrai bientôt en ligne un glossaire EN --> FR dédié à l'IA... 

*

Comment définir ce nouveau profil de formateur en IA ? Sans oublier cette autre question fondamentale : qui forme les formateurs ?

Les intervenants classiques en formation sont toujours les mêmes :

  • Le monde académique (professeurs, enseignants, chercheurs : les doctorats et autres masters spécialisés, en IA, Data Science, etc., ou les écoles d'ingénieurs sont la voie royale)
  • Les organismes de formation professionnelle continue (entreprises spécialisées dans les formations technologiques, cabinets de conseil et agences spécialisées en IA, organismes de formation plus généralistes)
  • Les géants de la technologie (les certifications proposées par Google, Microsoft, AWS, IBM, NVIDIA... sont de plus en plus reconnues)
  • Les experts internes aux (grandes) entreprises (départements R&D, équipes data, etc.)
  • Les consultants indépendants et freelances (y compris les autodidactes comme le soussigné...)
Quant aux formateurs eux-mêmes, il s'agit d'un mélange de profils variés ayant des points communs :

  • Experts techniques : solide expérience pratique en IA, ayant travaillé sur des projets concrets de machine learning, deep learning, vision par ordinateur, traitement du langage naturel, etc. Ils maîtrisent les concepts, les algorithmes, les frameworks (TensorFlow, PyTorch) et les outils (Python, R).
  • Pédagogues : au-delà de l'expertise technique, un bon formateur doit savoir vulgariser des concepts complexes, adapter son discours à différents publics (débutants, experts, non-techniques) et créer des exercices pratiques engageants.
  • Veilleurs technologiques : l'IA évolue très vite. Les formateurs doivent constamment se tenir informés des dernières avancées, des nouveaux outils et des meilleures pratiques pour offrir des formations à jour.
  • Spécialistes sectoriels (parfois) : formations plus ciblées (IA pour la finance, la santé, le marketing, etc.)
Personnellement, je suis en auto-formation permanente et peux tout à fait couvrir :
  • Les concepts clés de l'IA (qu'est-ce que l'IA aujourd'hui, données = carburant de l'IA, GIGO, perspectives à court-moyen-long terme)
  • La présentation des outils d'IA générative (ChatGPT, outils de génération de textes, d'images, etc.) pour créer des contenus pédagogiques et améliorer la productivité, le prompt engineering
  • Comment structurer un cours, créer des exercices pratiques, études de cas, projets concrets, rédiger des fiches métier
  • Les enjeux éthiques, juridiques et sociétaux de l'IA
en appliquant mes compétences de formateur marketing à l'intelligence artificielle. J'aime à me définir comme un autodidacte / explorateur / créateur de contenu, doué pour la vulgarisation (mais sans cadre d'évaluation "officiellement" reconnu) et doté de rigueur, de sens éthique et d'une excellente capacité à actualiser mes connaissances d'un domaine. Je le fais déjà au quotidien depuis plus de quarante ans dans le cadre de mon métier. D'autre part, en l'absence de toute formation à la pédagogie de l’IA et de tout référentiel métier pour les formateurs, qui peut prétendre l’être parmi les consultants indépendants ? et avec quels standards ?

En clair, sur 3 niveaux d’approfondissement :

Niveau

Objectif principal

Public cible

Exemples

1. Accultura-tion / Sensibi-lisation

Comprendre ce qu’est l’IA, ses usages et ses limites

Tous publics, cadres, enseignants, citoyens

Conférences, ateliers découverte, e-learning

2. Pratique / Utilisation

Savoir utiliser des outils IA, automatiser des tâches, dialoguer avec des LLMs

Métiers opérationnels, communicants, formateurs

Prompt engineering, automatisation de workflows

3. Technique / Conception

Développer, paramétrer ou auditer des systèmes IA

Développeurs, data scientists, ingénieurs

Python, TensorFlow, RAG, fine-tuning

je revendique les deux premiers !

*

Véritablement former à l’IA, c’est apprendre à penser, à utiliser, à questionner l’IA. Cela doit permettre aux personnes d’être non plus passives face aux outils, mais actives, responsables et critiques dans leurs usages.

Si ma démarche vous intéresse, veuillez consulter ma fiche-programme, entièrement adaptable à vos besoins, en restant disponible pour étudier toute forme de personnalisation selon vos exigences personnelles ou professionnelles.

L'intitulé de ce billet pose une question : où sont les formateurs en IA ? Si vous l'avez lu, vous en avez déjà trouvé au moins un ! 😀

mercredi 2 juillet 2025

IA : la revanche des métiers manuels

page IA

En France, comme dans d’autres pays, l’Éducation nationale valorise depuis des décennies les filières intellectuelles (générales, littéraires, scientifiques) au détriment des métiers dits "manuels" ou "techniques". Par défaut, cela s’est traduit par une orientation vers le bac général et des meilleurs élèves vers les études longues, par une dévalorisation sociale des filières professionnelles en plaçant les métiers manuels/professionnels comme "choix de rattrapage", et par un cloisonnement hérité d’une vision binaire et hiérarchisée du savoir entre activités "intellectuelles" et "manuelles", toujours bien ancrée dans les imaginaires collectifs, qui met arbitrairement en avant l' "intelligence théorique" et déclasse le "savoir-faire manuel".

Or avec l'IA, retournement de situation, les métiers davantage exposés à l’automatisation sont ceux purement intellectuels. J'en sais quelque chose ! Avec un processus traductionnel dépendant désormais à 95% de l'IA, il ne reste plus au traducteur que les miettes. Largement insuffisantes pour se construire une vie professionnelle et privée autour. Il va falloir réinventer le métier, pour peu qu'il existe encore dans les années futures...

Le discours dominant consiste à rassurer en disant que l’IA n'a pas vocation à remplacer l’humain, mais à le rendre plus efficace ! Je veux bien. Il est même probable que cela soit vrai. Pour autant, dans l'attente, de nombreux métiers "intellectuels" se sentent en danger, voire en voie d'extinction !

Ce sont pour le plus ceux qui impliquent des tâches répétitives, analytiques ou basées sur le traitement de données, car ces domaines sont particulièrement susceptibles d'être automatisés ou transformés, entre autres :

  • Analystes de données et statisticiens
  • Rédacteurs et traducteurs
  • Juristes et assistants juridiques
  • Comptables et fiscalistes
  • Journalistes et rédacteurs
  • Enseignants et formateurs (pour certaines tâches)
  • Analystes financiers et traders
  • Médecins et diagnosticiens (en partie)
  • Développeurs de logiciels (niveau junior)
  • Service client et support technique
Par catégories :

  • Métiers de la rédaction et de la création de contenu
  • Professions de la banque, l'assurance, la finance et la comptabilité
  • Métiers du droit et de l'assistance juridique
  • Métiers du design et de la création visuelle
  • Métiers de l'informatique
  • Métiers du conseil et de l'analyse de données
  • Professions médicales (en partie)
Autant d'activités enviées hier, dont on ne sait plus très bien si elles ont encore un avenir aujourd'hui !

*

Un véritable changement de paradigme, un immense défi à relever. Paradoxalement, les métiers manuels semblent mieux s'en sortir, lorsqu’ils sont spécialisés et porteurs d’une expertise difficile à automatiser : des métiers comme l'artisanat, la construction, l'agriculture, la mécanique, voire les soins (aide-soignants, par exemple) impliquent souvent des compétences physiques, une expertise pratique et un savoir-faire peu reproductibles dans leur intégralité. 

Il en va de même avec le sens artistique, l'adaptabilité à des situations imprévues ou l'empathie (dans les soins, l'aide aux personnes), etc. Là où l'IA automatise les tâches cognitives routinières, les compétences manuelles et humaines sont souvent perçues comme plus précieuses. On voit d'ailleurs que l'intelligence artificielle rebat les cartes, en révélant que la compétence utile n’est pas toujours celle qui produit du texte, mais celle qui agit intelligemment dans le réel, avec des activités manuelles plus concrètes, plus résilientes : le plombier ou l'électricien qui viennent vous dépanner en urgence, l'aide à domicile disponible de nuit ou le week-end, etc. etc.

Sous la pression économique autant que sociale, l'État lui-même devrait commencer à infléchir son discours (revalorisation de la voie pro, apprentissage, lycées des métiers, etc.) pour faire face à des pénuries massives dans les métiers techniques : BTP, industrie, énergie, maintenance, etc. Les filières générales ne suffisant plus à alimenter ces secteurs vitaux, la revalorisation des filières professionnelles devient un enjeu stratégique. Le manque de main-d'œuvre dans le bâtiment, la santé, la restauration, etc., et la reconnaissance croissante de leur importance économique devraient inciter l'État à agir dans ce sens. 

À quand l'amorçage d'une réflexion collective sur l’évolution du statut des métiers manuels à l’ère de l’IA ?

Car les métiers manuels aussi sont susceptibles d'être automatisés ou transformés :

  • L'IA et la robotique automatisent certaines tâches manuelles répétitives (ex. : assemblage en usine, logistique), et accroissent ainsi la demande pour des compétences techniques spécialisées, comme la maintenance de machines intelligentes, la programmation de robots ou la conception assistée par IA. Ces métiers, à la croisée du manuel et du technologique, nécessitent une revalorisation des formations professionnelles.
  • Par exemple, des secteurs comme la construction (utilisation de drones et d'imprimantes 3D) ou l'agriculture (agriculture de précision) intègrent des technologies IA, ce qui exige des compétences hybrides combinant savoir-faire manuel et maîtrise numérique.
  • L'IA a donc son rôle à jouer pour moderniser l'image de ces métiers, par exemple via des campagnes de communication générées par IA ou des formations intégrant des outils high-tech.

Tout cela devra forcément s'accompagner de changements culturels et de perception, d'une évolution des mentalités, d'une modernisation de la formation et d'une meilleure attractivité (notamment via des technologies comme la réalité virtuelle, l'apprentissage adaptatif, ou encore via une gratification économique des métiers). Cependant, sans une volonté politique forte de l'État et une réforme l'enseignement, l'IA risque de renforcer les inégalités existantes.

Quant à l'adaptation des métiers manuels menacés, il s'agira d'organiser :

  • la montée en compétences techniques (maintenance, supervision, pilotage de systèmes IA)
  • le développement d'une culture numérique (outils connectés, diagnostic, domotique, etc.)
  • la valorisation des savoir-faire humains irremplaçables (relation client, adaptation, intuition terrain)

Car nombre de ces métiers sont loin d'être sortis d'affaire :

  • Ouvriers de production et d'assemblage
  • Conducteurs de véhicules (camions, taxis, chauffeurs-livreurs)
  • Employés d'entrepôt et logisticiens
  • Agriculteurs et ouvriers agricoles
  • Cuisiniers et préparateurs en restauration rapide
  • Ouvriers du bâtiment (certaines tâches)
  • Employés de nettoyage industriel
  • Opérateurs de machines-outils
  • Postiers et trieurs de courrier
  • Gardiens et agents de sécurité (en partie) 

En bref, il s'agit pour le plus des secteurs manufacturier, minier, de la production, la logistique et le transport, l'agriculture, la construction, les services et le commerce de détail, etc. Soumis à des risques d'automatisation partielle, ils ne disparaîtront pas complètement mais évolueront vers des rôles de supervision ou de maintenance des systèmes automatisés. Ce qui ne se fera pas sans formation...

Nous sommes là bien loin de l'inutilité chronique des élucubrations du Haut-commissariat à la Stratégie et au Plan. Mieux vaut peut-être consulter cette page dédiée de France Travail...

En conclusion, les personnes devront s'adapter et développer de nouvelles compétences ! L'avenir réévalué des métiers manuels, exactement comme pour les professions intellectuelles, résidera le plus souvent dans une collaboration entre l'humain et la machine, où l'IA prendra en charge les tâches répétitives et pénibles, en permettant aux travailleurs de se concentrer sur des rôles plus complexes, valorisants et stratégiques.

mardi 1 juillet 2025

La traduction est l'un des premiers secteurs touchés par l’IA

page IA

Ce n'est pas moi (seul) qui le dit, mais ChatGPT :

L’affirmation « plus l’IA est puissante, plus on a besoin d’humains pour la cadrer » s’applique au domaine de la traduction, un des premiers secteurs touchés par l’IA...

Entre autres ! Après avoir tenté de plaider pour une utilisation responsable de l'IA par les LSP (ou les intégrateurs de solutions linguistiques, si vous préférez), autant vis-à-vis d'eux-mêmes que des clients et des traducteurs, je me rends compte que la « révolution IA » arrive aussi vite pour eux que pour nous. Sont-ils plus préparés que nous ne le sommes ?

J'ai reçu cette semaine une offre de travail d'un LSP pour un responsable linguistique dans le cadre d'un projet de longue durée en langue française. Parmi les caractéristiques minimales recherchées pour le profil, en plus d'une décennie d’expérience avérée dans le domaine linguistique, en gestion de projets, encadrement d’équipes, d'aptitudes à la communication, de disponibilité sur le long terme, etc. etc., il faut aussi - et surtout - être expérimenté dans les projets liés à l’intelligence artificielle, incluant la création de prompts ainsi que la génération et la régénération sur de grands modèles de langage (LLM) !

Ma question est simple : quel professionnel, en 2025, maîtrise un tel éventail de compétences ?

Disons un linguiste-ingénieur senior, un profil hybride d'une extrême rareté. Or tout ce qui est rare est cher ! C'est à se demander si le LSP qui lance une telle offre est bien responsable (voir plus haut) et conscient de tous les tenants et les aboutissants qu'elle implique...

J'ai tenté d'approfondir la chose en lui envoyant ce message :

Merci pour cette opportunité et pour avoir pris ma candidature en considération.
Le poste que vous décrivez — qui associe expertise linguistique de haut niveau, expérience en gestion d’équipe et de projet et familiarité avec la structuration de processus automatisés ou semi-automatisés liés à l’intelligence artificielle — vise un profil d’une grande rareté, hautement spécialisé, que l’on pourrait qualifier de linguiste-ingénieur hybride senior.
Ce rôle correspond bien à mon parcours au plan linguistique et managérial, mais pour ce qui est des composantes liées à l’IA, je pense que même un professionnel expérimenté aurait grand profit à suivre une introduction structurée aux workflows spécifiques du projet, en particulier puisqu’il s’agit d’un rôle de coordination et de leadership.
Je suis conceptuellement à l’aise avec ces technologies et activement engagé dans cet univers en évolution rapide et 
constante. Toutefois, pour garantir une efficacité optimale et une forte intégration opérationnelle avec vos outils et vos attentes, je suggérerais d’inclure une phase initiale dédiée de mise en route et de montée en compétences dès le démarrage de la mission.
Si cette approche vous semble envisageable, je serais heureux d’échanger sur les prochaines étapes et aimerais également en savoir davantage sur les détails concrets du projet.

Aucune réponse ! Bon, j'espère pour eux qu'ils trouveront la perle rare, mais je m'interroge sur cette façon, insensée selon moi, d'aborder des projets si délicats.

*

Il fut un temps où la traduction, c'était la traductrice, le traducteur. Aujourd'hui la traduction, c'est 95% l'IA + 5% la traductrice ou le traducteur ! Pire encore, dans l'esprit de la plupart des clients (voire des LSP), le travail de la traductrice, du traducteur, ne compte rien. Ou si peu. Trois fois rien, en fait (même si, comme disait Devos, trois fois rien c'est déjà quelque chose...). Au mot près, ce que j'écrivais il y a déjà dix ans dans mon plaidoyer pour un marketing de la traduction :

La traduction a été mise à mal ces dernières années : pas seulement dans les grandes écoles ou les universités, mais également auprès des agences de traduction, voire des traducteurs eux-mêmes et, last but not least, des clients qui en sont les destinataires. Autant d’acteurs pour lesquels l’image de la traduction est souvent ternie, dévalorisée. Ce marasme impacte défavorablement le marché et la pratique du métier à tous les niveaux, des tarifs à la perception générale que s’en font les différentes parties prenantes.
L’avènement d’Internet et l’explosion de la traduction automatique gratuite n’y sont pas pour rien ! Avec en parallèle une concurrence devenue mondiale (déloyale, diraient certains…) du jour au lendemain, et un nivellement des prix par le bas qui semble inarrêtable.

vaut à l'identique pour les traducteurs/les traductrices ! Leur image est profondément ternie, dévalorisée, leur travail n'est pas reconnu, ou si peu, leurs compétences encore moins, et ainsi de suite. Or pour reprendre les termes de Sandrine Cabaud, citée en exergue, notre métier n’est pas un service après-vente de DeepL, où l'on exige juste de la traductrice ou du traducteur de réviser des contenus traduits en 2 secondes par une IA, de sauver des articles massacrés à coups d’automatisation, d’être rapides, bons, dispo… et invisibles. Et payés une misère, ajouterais-je.

Dans le cadre 95% IA / 5% finition (ces 95% que je qualifie depuis des années d'industrialisation du good enough), les 5% de finition sont autant dévalorisés que les traducteurs ! Pour les LSP/clients, cela semble être un simple complément du 95% IA, une opération de peu d'importance qui coule de source. Il s'agit d'un grave malentendu, d'une sous-estimation chronique de ce qu'est véritablement la finition

C'est la finition qui qualifie le traducteur de métier, qui définit le degré ultime de la qualité ! Une IA traductionnelle n'est ni plus ni moins qu'un stagiaire : sans vérification et correction finales, le client n'en aura jamais pour son argent (quand bien même il aurait payé très peu, if you pay peanuts you get monkeys), car en réalité aucun agent intelligent (intellagent ?) artificiel n'est (encore) en mesure d'assurer seul ce niveau de finition. 

5%, ça semble peu mais c'est énorme : imaginez un Rafale, qui se compose d'environ 300 000 pièces, dont 15 000 (5%) seraient défectueuses ou le fruit d'erreurs de conception ! Idem pour une traduction, d'autant plus lorsqu'elles sont sensibles.

Cette semaine, une agence avec laquelle je collabore a envoyé un mail à tous ses traducteurs, en leur disant que compte tenu du marché actuel de la traduction, ils étaient contraints de se recentrer sur la MTPE, de baisser les tarifs et d'augmenter la productivité : notre principal client exigeant des livraisons de plus en plus rapides, nous devons poser une autre condition à la poursuite de notre collaboration : lorsque nous vous enverrons une traduction pré-traduite à post-éditer pour ce client, vous disposerez de 5 heures pour traiter jusqu’à 5 000 mots !!!

Autrement dit, 1000 mots de l'heure et livraison dans la foulée ! Cette condition est totalement incongrue. A minima, j'aurais compris une livraison J+1, mais livrer le jour même ne se justifie en aucun cas. Cela ne peut pas être une exigence commerciale (il y a parfois de réelles urgences, mais par définition elles ne sont pas programmables...), c'est juste un préalable pour mettre la traductrice, le traducteur, en situation de bâcler son travail. Qui plus est pour des clopinettes. Totalement inacceptable d'une part, et contre-productif (anti-économique) de l'autre, autant pour le client/LSP que pour la traductrice, le traducteur.

Il faut quand même savoir que la plupart des clients habituels en traduction sont de grosses boîtes, qui dégagent généralement des millions de CA quand ce n'est pas de bénéfices, et que cette course effrénée à la baisse (la casse) des prix n'est le fruit d'aucune contrainte financière, si ce n'est pour graisser l'actionnaire. Les traducteurs sont juste des variables d'ajustement, corvéables à merci, une expression qui nous vient directement du Moyen Âge, lorsque les serfs étaient soumis à des corvées sans pouvoir s'y opposer (et à des impôts arbitraires de la part de leur seigneur). 

Un demi-millénaire plus tard, les choses n'ont pas changé. Elles régressent même, chaque jour davantage. C'est quand même beau, le progrès social...