Glossaire IA

Tous les termes de l’intelligence artificielle expliqués simplement. Le dictionnaire IA de référence en français.

A

Agent IA

Système d’intelligence artificielle autonome capable d’exécuter des tâches complexes en plusieurs étapes, prenant des décisions et utilisant des outils de manière indépendante.

Apprentissage profond (Deep Learning)

Sous-domaine du machine learning utilisant des réseaux de neurones à plusieurs couches pour apprendre des représentations complexes à partir de données.

Attention (mécanisme d’)

Technique permettant à un modèle de se concentrer sur les parties les plus pertinentes d’une entrée lors du traitement. Fondement de l’architecture Transformer.

C

Chain-of-Thought (CoT)

Technique de prompting qui incite un modèle à détailler son raisonnement étape par étape avant de donner une réponse finale.

Contexte (fenêtre de)

Quantité maximale de texte (mesurée en tokens) qu’un modèle peut traiter en une seule fois. Plus la fenêtre est grande, plus le modèle peut gérer de longs documents.

D

Diffusion (modèle de)

Architecture de génération d’images qui apprend à créer des images en inversant progressivement un processus de bruitage. Utilisé par Stable Diffusion, DALL-E 3, Midjourney.

E

Embedding

Représentation numérique (vecteur) d’un mot, d’une phrase ou d’un document qui capture sa signification sémantique dans un espace mathématique.

F

Fine-tuning

Processus d’entraînement supplémentaire d’un modèle pré-entraîné sur un jeu de données spécifique pour l’adapter à une tâche ou un domaine particulier.

Few-shot learning

Capacité d’un modèle à apprendre une nouvelle tâche à partir de seulement quelques exemples fournis dans le prompt.

G

GPT (Generative Pre-trained Transformer)

Famille de modèles de langage développée par OpenAI. GPT-4 est la version la plus avancée, capable de traiter texte et images.

GAN (Generative Adversarial Network)

Architecture composée de deux réseaux en compétition : un générateur qui crée des données et un discriminateur qui les évalue.

H

Hallucination

Phénomène où un modèle d’IA génère des informations fausses ou inventées présentées avec confiance comme des faits réels.

L

LLM (Large Language Model)

Modèle de langage de grande taille entraîné sur d’immenses corpus de texte, capable de comprendre et générer du langage naturel. Exemples : GPT-4, Claude, Gemini, Llama.

LoRA (Low-Rank Adaptation)

Technique de fine-tuning efficace qui modifie seulement un petit nombre de paramètres, réduisant considérablement les ressources nécessaires.

M

Machine Learning

Branche de l’IA où les algorithmes apprennent à partir de données pour faire des prédictions ou prendre des décisions sans être explicitement programmés.

Multimodal

Capacité d’un modèle à traiter et générer plusieurs types de données : texte, images, audio, vidéo.

N

NLP (Natural Language Processing)

Domaine de l’IA dédié à la compréhension, l’interprétation et la génération du langage humain par les machines.

O

Open Source

Modèle ou outil dont le code source est librement accessible, modifiable et redistribuable. Exemples : Llama, Mistral, Stable Diffusion.

P

Prompt

Instruction ou question donnée à un modèle d’IA pour obtenir une réponse. La qualité du prompt influence directement la qualité du résultat.

Prompt Engineering

Art et science de formuler des prompts optimaux pour obtenir les meilleurs résultats d’un modèle d’IA.

R

RAG (Retrieval-Augmented Generation)

Technique qui enrichit les réponses d’un LLM en lui fournissant des informations récupérées dans une base de données externe, réduisant les hallucinations.

RLHF (Reinforcement Learning from Human Feedback)

Méthode d’entraînement qui utilise les retours humains pour affiner le comportement d’un modèle et l’aligner sur les préférences des utilisateurs.

S

SLM (Small Language Model)

Modèle de langage de taille réduite, optimisé pour fonctionner sur des appareils locaux ou pour des tâches spécifiques avec moins de ressources.

T

Token

Unité de base utilisée par les modèles de langage. Un token correspond approximativement à 4 caractères en anglais ou ¾ d’un mot.

Transformer

Architecture de réseau de neurones révolutionnaire (2017) qui utilise le mécanisme d’attention. Fondement de GPT, BERT, Claude et la majorité des LLM modernes.

V

Vector Database

Base de données spécialisée dans le stockage et la recherche de vecteurs (embeddings), essentielle pour les systèmes RAG et la recherche sémantique.