Retour à la prépa entretien
Ressource

📖 Glossaire IA 50 Termes

Les 50 termes essentiels à connaître pour briller en entretien transformation IA grand compte.

Agent IA

Programme autonome qui utilise un LLM pour prendre des décisions, appeler des outils et exécuter des tâches complexes sans intervention humaine directe.

AI Act

Règlement européen sur l'IA classant les systèmes selon leur niveau de risque (minimal, limité, haut, inacceptable). Le PO tient le registre.

AIA (Assessment d'Impact)

Analyse d'impact requise pour les systèmes IA à haut risque. Documente les risques, les mesures de mitigation et la supervision humaine.

API

Interface de programmation permettant à deux applications de communiquer. Les LLM sont accessibles via API (OpenAI, Anthropic, etc.).

Automatisation

Remplacement d'une tâche manuelle par un processus algorithmique ou IA. Distinguer automatisation simple (règles) vs intelligente (LLM).

Backlog

Liste priorisée des fonctionnalités/user stories. Dans un projet IA, il inclut aussi les tâches de données, d'évaluation et de conformité.

Base vectorielle

Base de données qui stocke des vecteurs (embeddings) pour la recherche par similarité. Ex: Pinecone, Weaviate, pgvector, Qdrant.

Biais (Bias)

Erreur systématique d'un modèle due à des données d'entraînement non représentatives. Critique dans les use cases RH, crédit, assurance.

Chain-of-Thought (CoT)

Technique de prompting qui demande au LLM de raisonner étape par étape avant de répondre. Améliore la précision sur les tâches complexes.

Chunking

Découpage d'un document en segments (chunks) pour le RAG. Taille typique : 256-1024 tokens. Le chevauchement entre chunks améliore la récupération.

Conformité (Compliance)

Respect des réglementations (AI Act, RGPD, sectorielles). Le PO s'assure que chaque use case IA est conforme avant déploiement.

Contexte (Fenêtre de)

Nombre maximum de tokens qu'un LLM peut traiter en une fois. De 4K (GPT-3.5) à 200K (Claude 3, Gemini 1.5). Au-delà, le modèle 'oublie'.

CoT (Chain-of-Thought)

Voir Chain-of-Thought — technique de raisonnement pas à pas.

CrewAI

Framework multi-agents où chaque agent a un rôle, des outils et des objectifs spécifiques. Les agents collaborent pour accomplir une tâche.

Dataset

Ensemble de données utilisé pour entraîner, valider ou tester un modèle. Qualité > quantité : des données propres valent mieux que des millions de tokens bruts.

Deep Learning

Sous-domaine du ML utilisant des réseaux de neurones profonds. Les LLM sont des modèles de deep learning (architecture Transformer).

DPO (Data Protection Officer)

Responsable de la protection des données. Interlocuteur clé du PO pour valider la conformité RGPD des projets IA.

Embedding

Représentation vectorielle d'un texte. Deux textes proches sémantiquement ont des embeddings proches (similarité cosinus). Dimension typique : 768-3072.

Few-shot

Technique de prompting où on donne au LLM quelques exemples (3-5) dans le prompt avant de poser la question. Plus fiable que zero-shot.

Fine-tuning

Ré-entraînement d'un LLM sur un dataset spécifique pour améliorer ses performances sur un domaine précis. Plus coûteux que le RAG.

Garde-fou (Guardrail)

Mécanisme de sécurité qui limite les actions d'un agent IA : pas d'accès à certaines données, pas de décision au-dessus d'un seuil, validation humaine obligatoire.

GPT (Generative Pre-trained Transformer)

Famille de modèles LLM développés par OpenAI. GPT-4o, GPT-4, GPT-3.5 sont les versions les plus connues.

Hallucination

Le LLM invente des faits avec conviction. C'est une caractéristique inhérente, pas un bug. Mitigation par RAG + prompt + validation humaine.

Human-in-the-Loop (HITL)

Principe de conception où un humain valide ou corrige les décisions de l'IA avant qu'elles ne soient appliquées. Obligatoire pour les systèmes à haut risque.

Hyperparamètre

Paramètre de configuration du LLM non appris pendant l'entraînement : température, top_p, max_tokens, frequency_penalty, presence_penalty.

Indexation

Processus de préparation des documents pour le RAG : nettoyage, chunking, génération d'embeddings, stockage dans la base vectorielle.

KPI IA

Indicateurs clés : business (ROI, adoption, satisfaction), techniques (précision, latence, coût/token), gouvernance (taux d'escalade, incidents).

LangChain

Framework open-source pour chaîner des appels LLM. Le plus adopté pour construire des applications RAG et des workflows IA.

LangGraph

Extension de LangChain pour créer des workflows en graphe avec état. Idéal pour les processus complexes avec conditions et boucles.

LLM (Large Language Model)

Modèle de langage entraîné sur des milliards de textes. Prédit le mot suivant dans une séquence. Ex: GPT-4, Claude, Gemini, Llama, Mistral.

MLOps

Pratiques pour déployer et maintenir des modèles ML/IA en production : versioning, monitoring, CI/CD, gestion des données, gouvernance.

Modèle Fondation (Foundation Model)

Modèle IA pré-entraîné sur de grandes quantités de données, pouvant être adapté à diverses tâches. Les LLM sont des modèles fondation.

Multi-agents

Architecture où plusieurs agents IA spécialisés collaborent. Chaque agent a un rôle (analyse, recherche, rédaction, validation) et des outils dédiés.

NLP (Natural Language Processing)

Traitement du langage naturel. Domaine de l'IA qui permet aux machines de comprendre, générer et interagir avec le langage humain.

POC (Proof of Concept)

Projet pilote de 4 à 6 semaines pour valider la faisabilité technique et l'impact métier d'un use case IA avant déploiement.

Prompt Engineering

Art d'écrire des instructions optimisées pour un LLM. Techniques : system prompt, few-shot, chain-of-thought, format contraint (JSON).

RAG (Retrieval-Augmented Generation)

Architecture qui connecte un LLM à une base de connaissances. À chaque requête, on récupère les documents pertinents et on les injecte dans le contexte.

ReAct (Reasoning + Acting)

Pattern agentique où le LLM raisonne (Thought), agit (Action), observe le résultat (Observation), et décide de la prochaine étape.

Recall

Métrique RAG : proportion de documents pertinents correctement récupérés. Un bon recall (>0.9) assure que le contexte contient bien l'information.

Registre IA

Document obligatoire (AI Act) listant tous les systèmes IA déployés, leur classification, l'AIA associée, et les mesures de gouvernance.

RGPD

Règlement Général sur la Protection des Données. Interdit d'envoyer des données personnelles dans les prompts LLM sans anonymisation.

ROI IA

Retour sur Investissement d'un projet IA. Calcul : (bénéfices - coûts) / coûts. Inclut API, infra, équipe, conformité, maintenance.

Similarité Cosinus

Mesure de similarité entre deux vecteurs (embeddings). Valeur entre -1 et 1. 1 = identique. Utilisée dans la recherche RAG.

Supervision Humaine

Processus où un humain valide, corrige ou rejette les sorties d'un système IA. Obligatoire pour les systèmes classés à haut risque par l'AI Act.

System Prompt

Instruction système donnée au LLM avant toute interaction. Définit le rôle, le ton, les contraintes et le format de réponse attendu.

Température

Paramètre qui contrôle la créativité du LLM : 0 = déterministe, 1 = créatif. Usage métier : 0.1-0.3. Brainstorming : 0.7-0.9.

Token

Unité de base traitée par un LLM (~¾ mot en anglais, ~1.2 en français). La facturation des API est basée sur le nombre de tokens.

Transformer

Architecture de deep learning sous-jacente à tous les LLM modernes. Basée sur le mécanisme d'attention, introduite par Google en 2017.

Vector DB

Voir Base vectorielle — base de données optimisée pour le stockage et la recherche d'embeddings vectoriels.

Zero-shot

Technique de prompting où on donne une instruction au LLM sans exemple. Fonctionne bien pour les tâches simples, moins fiable pour les tâches complexes.