📖 Glossaire IA 50 Termes
Les 50 termes essentiels à connaître pour briller en entretien transformation IA grand compte.
Agent IA
Programme autonome qui utilise un LLM pour prendre des décisions, appeler des outils et exécuter des tâches complexes sans intervention humaine directe.
AI Act
Règlement européen sur l'IA classant les systèmes selon leur niveau de risque (minimal, limité, haut, inacceptable). Le PO tient le registre.
AIA (Assessment d'Impact)
Analyse d'impact requise pour les systèmes IA à haut risque. Documente les risques, les mesures de mitigation et la supervision humaine.
API
Interface de programmation permettant à deux applications de communiquer. Les LLM sont accessibles via API (OpenAI, Anthropic, etc.).
Automatisation
Remplacement d'une tâche manuelle par un processus algorithmique ou IA. Distinguer automatisation simple (règles) vs intelligente (LLM).
Backlog
Liste priorisée des fonctionnalités/user stories. Dans un projet IA, il inclut aussi les tâches de données, d'évaluation et de conformité.
Base vectorielle
Base de données qui stocke des vecteurs (embeddings) pour la recherche par similarité. Ex: Pinecone, Weaviate, pgvector, Qdrant.
Biais (Bias)
Erreur systématique d'un modèle due à des données d'entraînement non représentatives. Critique dans les use cases RH, crédit, assurance.
Chain-of-Thought (CoT)
Technique de prompting qui demande au LLM de raisonner étape par étape avant de répondre. Améliore la précision sur les tâches complexes.
Chunking
Découpage d'un document en segments (chunks) pour le RAG. Taille typique : 256-1024 tokens. Le chevauchement entre chunks améliore la récupération.
Conformité (Compliance)
Respect des réglementations (AI Act, RGPD, sectorielles). Le PO s'assure que chaque use case IA est conforme avant déploiement.
Contexte (Fenêtre de)
Nombre maximum de tokens qu'un LLM peut traiter en une fois. De 4K (GPT-3.5) à 200K (Claude 3, Gemini 1.5). Au-delà, le modèle 'oublie'.
CoT (Chain-of-Thought)
Voir Chain-of-Thought — technique de raisonnement pas à pas.
CrewAI
Framework multi-agents où chaque agent a un rôle, des outils et des objectifs spécifiques. Les agents collaborent pour accomplir une tâche.
Dataset
Ensemble de données utilisé pour entraîner, valider ou tester un modèle. Qualité > quantité : des données propres valent mieux que des millions de tokens bruts.
Deep Learning
Sous-domaine du ML utilisant des réseaux de neurones profonds. Les LLM sont des modèles de deep learning (architecture Transformer).
DPO (Data Protection Officer)
Responsable de la protection des données. Interlocuteur clé du PO pour valider la conformité RGPD des projets IA.
Embedding
Représentation vectorielle d'un texte. Deux textes proches sémantiquement ont des embeddings proches (similarité cosinus). Dimension typique : 768-3072.
Few-shot
Technique de prompting où on donne au LLM quelques exemples (3-5) dans le prompt avant de poser la question. Plus fiable que zero-shot.
Fine-tuning
Ré-entraînement d'un LLM sur un dataset spécifique pour améliorer ses performances sur un domaine précis. Plus coûteux que le RAG.
Garde-fou (Guardrail)
Mécanisme de sécurité qui limite les actions d'un agent IA : pas d'accès à certaines données, pas de décision au-dessus d'un seuil, validation humaine obligatoire.
GPT (Generative Pre-trained Transformer)
Famille de modèles LLM développés par OpenAI. GPT-4o, GPT-4, GPT-3.5 sont les versions les plus connues.
Hallucination
Le LLM invente des faits avec conviction. C'est une caractéristique inhérente, pas un bug. Mitigation par RAG + prompt + validation humaine.
Human-in-the-Loop (HITL)
Principe de conception où un humain valide ou corrige les décisions de l'IA avant qu'elles ne soient appliquées. Obligatoire pour les systèmes à haut risque.
Hyperparamètre
Paramètre de configuration du LLM non appris pendant l'entraînement : température, top_p, max_tokens, frequency_penalty, presence_penalty.
Indexation
Processus de préparation des documents pour le RAG : nettoyage, chunking, génération d'embeddings, stockage dans la base vectorielle.
KPI IA
Indicateurs clés : business (ROI, adoption, satisfaction), techniques (précision, latence, coût/token), gouvernance (taux d'escalade, incidents).
LangChain
Framework open-source pour chaîner des appels LLM. Le plus adopté pour construire des applications RAG et des workflows IA.
LangGraph
Extension de LangChain pour créer des workflows en graphe avec état. Idéal pour les processus complexes avec conditions et boucles.
LLM (Large Language Model)
Modèle de langage entraîné sur des milliards de textes. Prédit le mot suivant dans une séquence. Ex: GPT-4, Claude, Gemini, Llama, Mistral.
MLOps
Pratiques pour déployer et maintenir des modèles ML/IA en production : versioning, monitoring, CI/CD, gestion des données, gouvernance.
Modèle Fondation (Foundation Model)
Modèle IA pré-entraîné sur de grandes quantités de données, pouvant être adapté à diverses tâches. Les LLM sont des modèles fondation.
Multi-agents
Architecture où plusieurs agents IA spécialisés collaborent. Chaque agent a un rôle (analyse, recherche, rédaction, validation) et des outils dédiés.
NLP (Natural Language Processing)
Traitement du langage naturel. Domaine de l'IA qui permet aux machines de comprendre, générer et interagir avec le langage humain.
POC (Proof of Concept)
Projet pilote de 4 à 6 semaines pour valider la faisabilité technique et l'impact métier d'un use case IA avant déploiement.
Prompt Engineering
Art d'écrire des instructions optimisées pour un LLM. Techniques : system prompt, few-shot, chain-of-thought, format contraint (JSON).
RAG (Retrieval-Augmented Generation)
Architecture qui connecte un LLM à une base de connaissances. À chaque requête, on récupère les documents pertinents et on les injecte dans le contexte.
ReAct (Reasoning + Acting)
Pattern agentique où le LLM raisonne (Thought), agit (Action), observe le résultat (Observation), et décide de la prochaine étape.
Recall
Métrique RAG : proportion de documents pertinents correctement récupérés. Un bon recall (>0.9) assure que le contexte contient bien l'information.
Registre IA
Document obligatoire (AI Act) listant tous les systèmes IA déployés, leur classification, l'AIA associée, et les mesures de gouvernance.
RGPD
Règlement Général sur la Protection des Données. Interdit d'envoyer des données personnelles dans les prompts LLM sans anonymisation.
ROI IA
Retour sur Investissement d'un projet IA. Calcul : (bénéfices - coûts) / coûts. Inclut API, infra, équipe, conformité, maintenance.
Similarité Cosinus
Mesure de similarité entre deux vecteurs (embeddings). Valeur entre -1 et 1. 1 = identique. Utilisée dans la recherche RAG.
Supervision Humaine
Processus où un humain valide, corrige ou rejette les sorties d'un système IA. Obligatoire pour les systèmes classés à haut risque par l'AI Act.
System Prompt
Instruction système donnée au LLM avant toute interaction. Définit le rôle, le ton, les contraintes et le format de réponse attendu.
Température
Paramètre qui contrôle la créativité du LLM : 0 = déterministe, 1 = créatif. Usage métier : 0.1-0.3. Brainstorming : 0.7-0.9.
Token
Unité de base traitée par un LLM (~¾ mot en anglais, ~1.2 en français). La facturation des API est basée sur le nombre de tokens.
Transformer
Architecture de deep learning sous-jacente à tous les LLM modernes. Basée sur le mécanisme d'attention, introduite par Google en 2017.
Vector DB
Voir Base vectorielle — base de données optimisée pour le stockage et la recherche d'embeddings vectoriels.
Zero-shot
Technique de prompting où on donne une instruction au LLM sans exemple. Fonctionne bien pour les tâches simples, moins fiable pour les tâches complexes.