Pages

jeudi 3 juillet 2025

IA : glossaire EN - FR de l'intelligence artificielle

page IA

Glossaire EN → FR de 156 termes liés à l’IA

Adversarial Machine Learning

Apprentissage machine antagoniste

Technique consistant à tromper un modèle avec des entrées volontairement manipulées.

Agent

Agent autonome

Programme capable d'agir de manière autonome pour atteindre un objectif donné.

AGI (Artificial General Intelligence)

Intelligence Artificielle Générale

IA hypothétique dotée de compétences générales similaires à celles des humains.

AI

IA - Intelligence artificielle

Discipline visant à créer des systèmes capables d'accomplir des tâches habituellement humaines.

Algorithm

Algorithme

Suite d'instructions permettant de résoudre un problème ou accomplir une tâche.

Alignment

Alignement

Processus d’ajustement d’un modèle pour qu’il réponde aux attentes humaines.

Annotation

Annotation

Ajout d’étiquettes ou de métadonnées à des données pour entraîner un modèle.

API (Application Programming Interface)

Interface de programmation

Outil permettant à différents logiciels de communiquer entre eux.

Artificial Intelligence (AI)

Intelligence artificielle

Voir "AI" ci-dessus.

Attention

Attention

Mécanisme permettant à un modèle de se concentrer sur certaines parties d'une entrée.

Attention mechanism

Mécanisme d’attention

Système qui permet au modèle de se concentrer sur les parties importantes d’un texte.

Autoencoder

Autoencodeur

Réseau de neurones non supervisé utilisé pour l'encodage et la reconstruction de données.

Auto-regressive model

Modèle auto-régressif

Génère du texte mot par mot, en se basant sur les mots déjà produits.

Backpropagation

Rétropropagation

Méthode d'apprentissage consistant à ajuster les poids en fonction de l'erreur.

Beam Search

Recherche en faisceau

Méthode de décodage qui explore plusieurs chemins à la fois pour choisir la sortie la plus probable.

Benchmark

Référentiel d’évaluation

Test standardisé pour comparer les performances des modèles.

BERT

BERT

Modèle de langage bidirectionnel préentrainé pour la compréhension du texte.

Bias

Biais

Distorsion systématique dans les résultats, souvent issue des données d’entraînement.

Bias (in AI/data)

Biais (en IA/données)

 Distorsion ou erreur systématique dans les résultats d'un modèle d'IA, souvent due à des données d'entraînement non représentatives, incomplètes ou reflétant des préjugés sociaux. Les LLM peuvent hériter et amplifier ces biais.

Big Data

Mégadonnées

Ensemble de données volumineuses, complexes, traitées à l'aide de technologies spécifiques.

Billion Parameters

Milliards de paramètres

Unité de mesure courante de la taille et de la complexité d'un LLM. Plus un modèle a de paramètres, plus il est généralement capable de comprendre et de générer du langage complexe, mais plus il est coûteux à entraîner et à exécuter (ex. GPT-3 avait 175 milliards de paramètres).

BLEU Score

Score BLEU

Métrique d’évaluation de la qualité d’une traduction automatique.

Chain-of-Thought (CoT)

Chaîne de raisonnement

Méthode où le raisonnement du modèle est explicité pas à pas (raisonnement logique)

Chain-of-Thought (CoT) Prompting

Prompting "chaîne de pensée"

Technique d'ingénierie de prompt qui consiste à inciter le LLM à "raisonner" étape par étape, en décomposant un problème complexe en une série d'étapes intermédiaires avant de donner la réponse finale. Cela améliore souvent la précision et la cohérence des réponses.

Chatbot

Agent conversationnel

Programme conçu pour interagir avec des humains via du texte.

ChatGPT

ChatGPT

Modèle de dialogue développé par OpenAI, basé sur GPT.

Checkpoint

Point de sauvegarde

État enregistré d'un modèle à un moment donné de l'entraînement.

Constitutional AI

IA constitutionnelle

IA conçue pour respecter des règles éthiques définies dans son apprentissage.

Context window

Fenêtre de contexte

Quantité maximale d’information que le modèle peut "voir" en une fois.

Convolutional Neural Network (CNN)

Réseau de neurones convolutifs

Réseau utilisé surtout pour le traitement d’images et la reconnaissance de formes.

Corpus

Corpus

Collection de textes utilisés pour l’apprentissage ou l’évaluation d’un modèle.

Data annotation

Annotation de données

Ajout de balises ou labels sur les données pour entraîner un modèle.

Data augmentation

Augmentation de données

Techniques pour créer artificiellement de nouvelles données à partir de celles existantes.

Data curation

Curation de données

Sélection rigoureuse de données utiles à l’entraînement.

Data mining

Exploration de données

Extraction de connaissances à partir de grandes bases de données.

Data poisoning

Empoisonnement de données

Manipulation malveillante de données pour compromettre un modèle.

Dataset

Jeu de données

Collection de données utilisée pour entraîner ou tester un modèle.

Decoder

Décodeur

Partie d'un modèle qui génère une sortie à partir de représentations internes.

Decoding

Décodage

Conversion de la sortie du modèle en texte compréhensible.

Deep Learning (DL)

Apprentissage profond

Branche du machine learning utilisant des réseaux neuronaux profonds.

Diffusion model

Modèle de diffusion

Modèle génératif qui transforme du bruit en données structurées (texte, image...).

Dropout

Abandon

Technique réduisant le surapprentissage en désactivant des neurones aléatoirement.

Embedding

Représentation vectorielle

Représentation numérique d’un mot ou concept dans un espace mathématique.

Embeddings (Word/Sentence/Token)

Plongements (de mots/phrases/jetons)

Représentations vectorielles denses (listes de nombres) de mots, de phrases ou de jetons dans un espace multidimensionnel. Ces vecteurs capturent le sens sémantique et les relations entre les éléments linguistiques, permettant aux modèles d'IA de "comprendre" le langage.

Emergent Abilities

Compétences émergentes

Capacits apparaissant à grande échelle et non prévues à petite échelle d'entraînement.

Encoder

Encodeur

Partie du modèle qui transforme un texte en vecteurs.

Epoch

Époque

Passage complet d'un modèle sur l'ensemble du jeu de données d'entraînement.

Evaluation

Évaluation

Mesure des performances d'un modèle sur des tâches ou données spécifiques.

Evaluation metric

Métrique d’évaluation

Indicateur chiffré servant à comparer différents modèles.

Few-shot learning

Apprentissage avec peu d’exemples

Capacité à généraliser à partir de quelques exemples.

Fine-tuning

Ajustement / Réglage fin

Spécialisation d’un modèle généraliste sur une tâche ou un domaine.

Foundation model

Modèle fondamental

Modèle généraliste servant de base à d’autres applications.

Frozen Model

Modèle gelé

Modèle dont les poids ne sont plus modifiés lors d'un apprentissage secondaire.

Generative AI

IA générative

IA capable de produire du contenu (texte, image, code…).

Generative model

Modèle génératif

Modèle IA capable de produire du contenu (texte, image, son...).

Generative Pre-trained Transformer (GPT)

Transformeur Génératif Pré-entraîné (GPT)

Famille de grands modèles de langage développés par OpenAI, basés sur l'architecture Transformer. Le "Génératif" indique leur capacité à créer du nouveau contenu, et "Pré-entraîné" signifie qu'ils ont été formés sur d'énormes quantités de données textuelles avant d'être affinés pour des tâches spécifiques.

Glossary integration

Intégration de glossaire

Ajout d’un vocabulaire spécifique pour guider ou corriger les sorties du modèle.

GPT

GPT

Famille de modèles génératifs préentraînés créés par OpenAI.

Gradient Descent

Descente de gradient

Méthode d’optimisation permettant d’ajuster les poids d’un réseau neuronal.

Grounding

Ancrage dans le réel

Capacité du modèle à produire des réponses basées sur des faits avérés.

Grounding (in LLMs)

Ancrage / Fondement (dans les LLM)

Capacité d'un LLM à relier ses sorties textuelles à des informations vérifiables, des faits du monde réel ou des sources spécifiques, plutôt que de se contenter de générer du texte plausible mais potentiellement incorrect (hallucination). Essentiel pour la fiabilité.

Hallucination

Hallucination

Réponse fausse mais plausible générée par un modèle.

Hugging Face

Hugging Face

Plateforme open source pour le partage et l’utilisation de modèles IA.

Human Feedback

Retour humain

Intervention humaine pour corriger ou guider l’apprentissage d’un modèle.

Human-in-the-loop (HITL)

Humain dans la boucle

Système IA où l’humain participe à la validation, au contrôle ou à l’amélioration des résultats.

Hyperparameter

Hyperparamètre

Paramètre défini avant l’entraînement du modèle (ex : taille du batch, taux d’apprentissage).

In-Context Learning

Apprentissage dans le contexte

Capacité d’un modèle à apprendre à partir des exemples fournis directement dans une requête (prompt).

Inference

Inférence

Utilisation du modèle pour produire une réponse à une question.

Input Layer

Couche d'entrée

 Première couche d'un réseau neuronal qui reçoit les données brutes (les jetons du prompt, par exemple) et les transmet aux couches cachées pour traitement.

Instruction (Prompt)

Instruction (ou Prompt)

Texte ou consigne fournie au modèle pour générer une réponse ciblée.

Instruction tuning

Affinage par instructions

Adaptation du modèle pour répondre à des consignes explicites.

Jailbreaking

Détournement (Jailbreaking)

Technique pour forcer un modèle à produire des réponses qu’il n’est normalement pas censé fournir.

JSON Mode

Mode JSON

Mode de sortie structuré où les réponses du modèle sont formatées en JSON.

Knowledge distillation

Distillation de connaissances

Méthode de compression d’un modèle complexe vers un plus simple, tout en conservant ses performances.

Knowledge grounding

Ancrage des connaissances

Alignement des réponses d’un modèle sur une base de faits ou de données fiables.

K-Shot Learning

Apprentissage K-exemples

Entraînement ou adaptation d’un modèle à partir de K exemples fournis.

Language Model

Modèle de langage

Modèle entraîné à comprendre, générer ou compléter du texte.

Large Language Model (LLM)

Grand modèle de langage

Modèle IA entraîné sur de très grands corpus pour générer ou comprendre du texte.

Latent space

Espace latent

Espace abstrait dans lequel les données sont projetées pour traitement.

Learning Rate

Taux d’apprentissage

Vitesse à laquelle les poids du modèle sont ajustés pendant l’entraînement.

LoRA (Low-Rank Adaptation)

Adaptation à faible rang (LoRA)

Technique légère pour adapter des modèles préentraînés sans modifier tous leurs paramètres.

Loss function

Fonction de perte

Mesure de l’erreur entre la sortie du modèle et la vérité attendue.

Machine Learning

Apprentissage automatique

Domaine de l’IA où les modèles apprennent des données sans être explicitement programmés.

Machine Translation (MT)

Traduction automatique

Utilisation de modèles informatiques pour traduire automatiquement des textes entre plusieurs langues.

Masked Language Modeling

Modélisation de langage masqué

Technique de pré-entraînement où des mots sont masqués aléatoirement dans une phrase, et le modèle doit prédire les mots masqués en se basant sur le contexte environnant. C'est une tâche courante pour entraîner les LLM comme BERT.

Mixture of Experts (MoE)

Mélange d’experts

Architecture qui active dynamiquement les sous-modèles spécialisés selon les besoins.

Model

Modèle

En IA, un programme informatique entraîné qui a appris à reconnaître des motifs dans les données ou à effectuer des tâches spécifiques (comme la génération de texte, la classification, la traduction).

Model Alignment

Alignement de modèle

 Processus visant à faire en sorte qu'un modèle d'IA (en particulier un LLM) se comporte de manière souhaitée, c'est-à-dire qu'il soit utile, inoffensif et honnête, en alignant ses sorties avec les valeurs et les préférences humaines. Souvent réalisé via le RLHF.

Model Card

Fiche d'identité de modèle

Document standardisé qui fournit des informations importantes sur un modèle d'apprentissage automatique, y compris ses performances, les données d'entraînement utilisées, ses limites, ses biais potentiels et son utilisation prévue, pour favoriser la transparence et la responsabilité.

Model Drift

Dérive de modèle

Phénomène où la performance d'un modèle d'IA se détériore avec le temps, généralement parce que les caractéristiques des données d'entrée ou de l'environnement changent par rapport aux données sur lesquelles le modèle a été entraîné.

Multilingual Model

Modèle multilingue

Modèle d'IA capable de traiter ou de générer du texte dans plusieurs langues. Un seul modèle peut traduire entre de nombreuses paires de langues ou comprendre des requêtes dans différentes langues.

Multimodal

Multimodal

Caractérise une IA capable de traiter et/ou de générer des informations provenant de plusieurs types de données ou "modalités" (par exemple, texte, image, audio, vidéo). Un modèle multimodal peut comprendre un prompt combinant texte et image, et générer une réponse en texte ou en image.

Multimodal model

Modèle multimodal

Modèle combinant plusieurs types de données : texte, image, audio, etc.

Natural Language Processing (NLP)

Traitement du langage naturel (TLN)

Champ de l'intelligence artificielle qui permet aux ordinateurs de comprendre, d'interpréter, de manipuler et de générer le langage humain de manière significative. Les LLM sont une avancée majeure dans le TLN.

Neural Machine Translation (NMT)

Traduction automatique neuronale

Approche de la traduction automatique qui utilise de grands réseaux de neurones artificiels (souvent des architectures de type Transformer) pour prédire la séquence de mots la plus probable dans la langue cible, en tenant compte de tout le contexte de la phrase source. C'est la technologie dominante aujourd'hui.

Neural Network

Réseau neuronal

Modèle informatique inspiré de la structure et du fonctionnement du cerveau humain. Composé de couches de "neurones" (nœuds) interconnectés qui traitent les informations. C'est la base de l'apprentissage profond.

Next Token Prediction

Prédiction du prochain jeton

 La tâche fondamentale que réalisent les LLM génératifs. Étant donné une séquence de jetons (le prompt et les jetons générés précédemment), le modèle prédit le jeton le plus probable à suivre.

N-gram

N-gramme

Une séquence contiguë de n éléments (mots ou caractères) d'un texte. Les n-grammes sont utilisés dans divers modèles linguistiques pour capturer le contexte local et la probabilité des séquences.

NLP

TLN (Traitement du Langage Naturel)

Acronyme pour Natural Language Processing.

Normalization

Normalisation

Processus de transformation des données brutes en un format standardisé et plus cohérent, facilitant leur traitement par les modèles d'IA. En PNL, cela peut inclure la mise en minuscule, la suppression de ponctuation, etc.

One-Shot Learning

Apprentissage à un seul coup

Capacité d'un modèle d'IA à apprendre à partir d'un seul exemple ou d'une seule démonstration. Les LLM peuvent souvent montrer des capacités de "one-shot learning" via le prompting, en étant capables d'effectuer une nouvelle tâche après un seul exemple dans la consigne.

Output Layer

Couche de sortie

Dernière couche d'un réseau neuronal qui produit le résultat final du modèle (par exemple, la prédiction du prochain mot dans un LLM, ou la classification dans un modèle de classification).

Overfitting

Surapprentissage

Phénomène où un modèle d'IA apprend trop bien les données d'entraînement, au point de mémoriser le bruit et les spécificités des données d'entraînement, ce qui le rend moins performant sur de nouvelles données non vues.

Parameter

Paramètre

Élément appris pendant l'entraînement, qui définit le comportement du modèle.

Post-editing

Post-édition

Processus de révision et de correction humaine du texte produit par un système de traduction automatique ou un LLM, afin de garantir sa précision, sa fluidité et son adéquation au contexte.

Preprocessing

Prétraitement

Étapes initiales de nettoyage, de transformation et de formatage des données brutes avant qu'elles ne soient utilisées pour entraîner un modèle d'IA. Essentiel pour la qualité du modèle.

Pretrained Model

Modèle pré-entraîné

Un modèle d'apprentissage automatique (comme un LLM) qui a déjà été entraîné sur un très grand ensemble de données générales. Ce modèle peut ensuite être affiné pour des tâches spécifiques.

Pretraining

Pré-entraînement

Processus d'entraînement initial d'un modèle d'IA sur un vaste ensemble de données générales pour lui faire acquérir une compréhension fondamentale des motifs et des structures (par exemple, du langage pour un LLM).

Prompt

Invite / Consigne

Texte d'entrée destiné à guider la réponse du modèle.

Prompt engineering

Conception de prompts

Art de formuler des consignes efficaces pour obtenir des résultats pertinents.

Q-Learning

Apprentissage Q

Algorithme d'apprentissage par renforcement qui permet à un agent d'apprendre la meilleure action à prendre dans un environnement donné pour maximiser une récompense, sans nécessiter de modèle de l'environnement.

Quantization

Quantification

Technique de compression qui réduit la précision numérique des poids et des activations d'un modèle d'IA (passant par exemple de 32 bits à 8 bits). Cela réduit la taille du modèle et accélère son exécution, mais peut affecter légèrement la performance.

Query

Requête / Question

L'entrée (souvent sous forme de texte) donnée à un système d'IA ou à un moteur de recherche pour obtenir une réponse ou un résultat. Pour un LLM, c'est souvent synonyme de prompt.

RAG (Retrieval-Augmented Gen)

Génération augmentée par recherche

Combinaison de recherche documentaire et génération de texte.

Reinforcement Learning

Apprentissage par renforcement

Type d'apprentissage automatique où un agent apprend à prendre des décisions dans un environnement en recevant des récompenses ou des pénalités en fonction de ses actions. C'est utilisé pour aligner les LLM (via RLHF).

Retrieval-Augmented Generation (RAG)

Génération augmentée par la récupération (RAG)

Technique qui combine les capacités de génération de texte d'un LLM avec un système de récupération d'informations. Le LLM recherche des informations pertinentes dans une base de données externe pour ancrer sa réponse et réduire les hallucinations.

Reward Model

Modèle de récompense

Un modèle auxiliaire, souvent utilisé dans le RLHF, qui est entraîné à prédire la "qualité" ou la "préférence humaine" d'une réponse générée par un LLM. Il est ensuite utilisé pour guider l'entraînement par renforcement du LLM principal.

RLHF

Apprentissage par renforcement avec retour humain

Méthode d’entraînement basée sur des préférences humaines.

Rouge Score

Score ROUGE

(Recall-Oriented Understudy for Gisting Evaluation) Métrique utilisée pour évaluer la qualité des résumés ou des textes générés en comparant les n-grammes de la sortie du modèle avec ceux d'un ou plusieurs résumés de référence écrits par des humains.

Scaling Laws

Lois d'échelle

Observations empiriques qui décrivent comment la performance des LLM (et d'autres modèles d'apprentissage profond) s'améliore de manière prévisible à mesure que la taille du modèle, la taille des données d'entraînement et la puissance de calcul augmentent.

Self-attention

Auto-attention

Mécanisme qui permet au modèle de pondérer chaque mot en fonction de sa pertinence.

Self-Supervised Learning

Apprentissage auto-supervisé

Type d'apprentissage automatique où un modèle apprend à partir de données non étiquetées en générant ses propres signaux de supervision. Par exemple, masquer des mots dans une phrase et les prédire est une forme d'apprentissage auto-supervisé utilisée dans le pré-entraînement des LLM.

Semantic Search

Recherche sémantique

Type de recherche qui interprète le sens et l'intention de la requête de l'utilisateur plutôt que de se fier uniquement à la correspondance exacte des mots-clés, permettant des résultats plus pertinents. Les LLM peuvent améliorer considérablement la recherche sémantique.

Sentiment Analysis

Analyse de sentiment

Tâche du TLN qui consiste à déterminer la tonalité émotionnelle (positive, négative, neutre) ou l'opinion exprimée dans un texte.

Softmax

Softmax

Fonction mathématique couramment utilisée dans la couche de sortie des réseaux neuronaux pour convertir une série de valeurs numériques en une distribution de probabilité. Dans un LLM, elle transforme les scores de chaque jeton possible en probabilités de sélection pour le prochain jeton.

Supervised fine-tuning

Ajustement supervisé

Réentraînement d’un modèle avec des données étiquetées.

Supervised Learning

Apprentissage supervisé

Type d'apprentissage automatique où le modèle apprend à partir d'un ensemble de données étiquetées (c'est-à-dire que chaque entrée est associée à la bonne sortie). La majorité des tâches de classification et de régression en IA sont basées sur l'apprentissage supervisé.

Temperature

Température

Paramètre qui ajuste la diversité des réponses générées.

Terminology extraction

Extraction terminologique

Processus automatique ou assisté par ordinateur d'identification et d'extraction de termes spécifiques à un domaine (vocabulaire technique, jargon) à partir de corpus de texte. Utile pour la traduction spécialisée.

Text generation

Génération de texte

Capacité d'un système d'IA à produire du nouveau texte qui soit cohérent, pertinent et souvent créatif, en réponse à un prompt. C'est la fonction principale des LLM génératifs.

Text segmentation

Segmentation de texte

Processus de division d'un texte en unités plus petites et significatives, comme des phrases, des paragraphes ou des jetons, pour faciliter le traitement par un modèle d'IA.

Text Token

Jeton de texte

Voir Token.

Token

Jeton

Unité élémentaire (mot ou fragment de mot) traitée par le modèle.

Tokenization

Tokenisation

Processus de découpage d'une séquence de texte en unités plus petites appelées jetons (mots, sous-mots, caractères, symboles). C'est la première étape du traitement de texte pour les LLM.

Tokenizer

Tokeniseur

Outil qui découpe un texte en unités (tokens) compréhensibles par le modèle.

Top-K Sampling

Échantillonnage Top-K

Technique de génération de texte dans les LLM où le modèle ne considère que les K prochains jetons les plus probables à un moment donné, et échantillonne le prochain jeton parmi ceux-ci. Cela aide à éviter la répétition tout en maintenant la pertinence.

Top-P Sampling (Nucleus Sampling)

Échantillonnage Top-P (Échantillonnage par noyau)

Technique de génération de texte plus flexible que le Top-K, où le modèle ne considère que le plus petit ensemble de prochains jetons dont la somme des probabilités dépasse un seuil P donné. Cela permet une plus grande diversité tout en évitant les options très improbables.

Training

Entraînement

Processus par lequel un modèle d'IA apprend à partir de données, en ajustant ses poids et ses paramètres pour minimiser les erreurs et améliorer ses performances sur la tâche visée.

Training Data

Données d'entraînement

L'ensemble des données (texte, images, etc.) utilisées pour entraîner un modèle d'IA. La qualité, la quantité et la diversité des données d'entraînement sont cruciales pour la performance du modèle.

Transfer Learning

Apprentissage par transfert

Technique où un modèle entraîné sur une tâche (ou un vaste ensemble de données) est réutilisé comme point de départ pour une tâche différente mais liée. Le pré-entraînement suivi de l'affinement est un exemple clé d'apprentissage par transfert dans les LLM.

Transformer

Transformeur

Architecture de réseau neuronal introduite en 2017, qui est devenue la base des modèles d'IA les plus performants en PNL, y compris tous les LLM modernes. Elle repose fortement sur le mécanisme d'attention et permet un traitement parallèle efficace des séquences.

Tree-of-Thought (ToT)

Arbre de pensée

Extension du Chain-of-Thought Prompting où le modèle explore plusieurs chemins de raisonnement possibles, comme les branches d'un arbre, évalue chaque chemin, et choisit le meilleur pour arriver à une solution plus robuste.

Underfitting

Sous-apprentissage

Phénomène où un modèle d'IA est trop simple ou n'a pas été suffisamment entraîné pour capturer les motifs sous-jacents dans les données, ce qui le rend peu performant à la fois sur les données d'entraînement et sur les nouvelles données.

Unsupervised Learning

Apprentissage non supervisé

Type d'apprentissage automatique où le modèle apprend à partir de données non étiquetées, en découvrant des structures, des motifs ou des relations cachées dans les données sans intervention humaine directe pour fournir les bonnes réponses.

Upsampling

Suréchantillonnage

Technique utilisée dans la préparation des données pour augmenter le nombre d'échantillons de la classe minoritaire dans un ensemble de données déséquilibré, afin d'améliorer la performance du modèle pour cette classe.

Validation

Validation

Processus d'évaluation de la performance d'un modèle d'IA sur des données qu'il n'a pas vues pendant l'entraînement, afin de s'assurer qu'il généralise bien et n'est pas en surapprentissage.

Validation Set

Jeu de validation

Un sous-ensemble des données utilisées pendant l'entraînement d'un modèle d'IA, spécifiquement réservé pour évaluer et ajuster le modèle à intervalles réguliers sans utiliser les données du jeu de test final.

Vector database

Base de données vectorielle

Système qui permet de stocker et interroger des représentations vectorielles de données.

Vision-Language Model (VLM)

Modèle Vision-Langage (VLM)

Type de modèle multimodal capable de comprendre et de générer du contenu à partir de données visuelles (images, vidéos) et de données textuelles. Il peut par exemple décrire une image ou générer une image à partir d'une description.

Vocabulary

Vocabulaire

L'ensemble unique de tous les jetons (mots, sous-mots) que le modèle d'IA a rencontrés pendant son entraînement et qu'il est capable de comprendre ou de générer.

Weight

Poids

Des valeurs numériques dans un réseau neuronal qui sont ajustées pendant le processus d'entraînement. Ils déterminent la force des connexions entre les neurones et l'importance relative des différentes entrées pour la prédiction finale du modèle.

Word Embedding

Plongement de mot

Une forme spécifique de plongement où chaque mot est représenté par un vecteur numérique dense qui capture son sens sémantique et ses relations avec d'autres mots.

Word2Vec

Word2Vec

Famille de modèles (comme skip-gram et CBOW) qui sont utilisés pour créer des plongements de mots efficaces en apprenant des représentations vectorielles de mots à partir de grands corpus de texte.

Zero-Shot Learning

Apprentissage à zéro coup

Capacité d'un modèle d'IA à effectuer une tâche ou à reconnaître une catégorie pour laquelle il n'a reçu aucun exemple explicite pendant l'entraînement. Les LLM peuvent souvent réaliser du "zero-shot learning" simplement en recevant des instructions claires dans le prompt.

Zero-shot translation

Traduction à zéro coup

Capacité d'un modèle de traduction automatique multilingue à traduire directement entre deux langues sans avoir été explicitement entraîné sur des paires de textes parallèles pour ces deux langues. Le modèle déduit la traduction via une langue pivot interne ou une compréhension linguistique générale.

Z-Score

Score Z

Une mesure statistique qui indique le nombre d'écarts-types qu'une valeur donnée est éloignée de la moyenne d'un ensemble de données. Utilisé dans l'analyse de données pour normaliser et comparer des points de données.

Co-auteurs : ChatGPT, Gemini, DeepSeek, Glok, Perplexity, Mistral, Claude et le soussigné :

P.S. Si vous trouvez des erreurs ou souhaitez suggérer des termes à ajouter, n'hésitez pas à me le signaler en commentaire. Merci d'avance 😀

Aucun commentaire:

Enregistrer un commentaire