Fondamentaux des LLMs
Comprenez le fonctionnement des modèles de langage, maîtrisez le prompting, et sachez les utiliser efficacement dans un contexte grand compte.
🎯 Objectifs
Comprendre le fonctionnement d'un LLM (tokenisation, contexte, température)
Maîtriser les techniques de prompting (zero-shot, few-shot, CoT, system prompt)
Connaître les limites : hallucinations, biais, coûts, données sensibles
Savoir choisir un modèle selon le besoin (taille, coût, latence, confidentialité)
Qu'est-ce qu'un LLM ?
Un Large Language Model (LLM) est un réseau de neurones artificiel entraîné sur des milliards de textes (livres, articles, code, web). Sa seule capacité : prédire le mot suivant dans une séquence. Ce n'est pas une "intelligence" au sens humain — c'est un moteur de complétion statistique d'une sophistication inédite.
Concepts clés
Tokenisation
Le texte est découpé en tokens (pas des mots entiers). 1 token ≈ 0,75 mot en anglais, ~1,2 en français. Une page A4 fait ~500 tokens. Le coût d'un appel LLM est proportionnel au nombre de tokens.
Fenêtre de contexte
C'est la "mémoire" du modèle : le nombre de tokens qu'il peut traiter en une fois. De 8K tokens (Gemini 1.0) à 200K tokens (Claude 3, Gemini 1.5). Au-delà, le modèle "oublie" le début.
Température
Paramètre qui contrôle la créativité : 0 = déterministe (toujours la même réponse), 1 = créatif (réponses variées). Pour des tâches métier, on utilise souvent 0,1-0,3. Pour du brainstorming : 0,7-0,9.
Hallucinations
Le modèle invente des faits avec une entière assurance. Ce n'est pas un bug, c'est une conséquence de son fonctionnement : il prédit le mot le plus probable, pas la vérité. Toujours vérifier les sorties.
Techniques de prompting
Zero-shot
Question directe, sans exemple
"Résume ce document"
Few-shot
Avec 2-3 exemples en entrée
"Voici 3 résumés d'exemples. Fais pareil."
Chain-of-Thought
Raisonnement pas à pas
"Réfléchis étape par étape"
System Prompt
Définit le rôle et les règles du modèle avant toute interaction. Essentiel en contexte professionnel.
"Tu es un consultant senior spécialisé en transformation bancaire. Tu réponds de manière concise, avec des données chiffrées. Tu cites toujours tes sources."
Choisir le bon modèle
En entretien, on vous demandera pourquoi choisir tel modèle plutôt qu'un autre :
GPT-4o (OpenAI)
Polyvalent, vision, outils. Coût moyen. Standard industriel.
Claude 3.5 Sonnet
Excellent en analyse longue, code, raisonnement. Grande fenêtre (200K tokens).
Gemini 1.5 Pro
Très grande fenêtre (1M tokens). Intégration Google Cloud. Vision.
Mistral Large
Alternative européenne, souveraineté. Idéal pour les données sensibles.
📚 Ressources gratuites 2026
-
▶
DeepLearning.AI - ChatGPT Prompt Engineering for Developers
1h30, gratuit. Les fondamentaux du prompting par Andrew Ng et OpenAI.
-
▶
Google - Introduction to Generative AI
Gratuit, certification incluse. Bonne vue d'ensemble.
-
▶
Anthropic - Prompt Engineering Guide
Référence technique complète.
-
▶
Gratuit, complet. Les bases du NLP.
✍️ Exercices pratiques
Exercice 1 : Comparaison de LLMs
Testez 3 LLMs différents (ChatGPT, Claude, Mistral) sur le même prompt : "Explique la différence entre un LLM et une base de données traditionnelle à un directeur métier non technique". Comparez le ton, la précision, la longueur.
Exercice 2 : Du vague au précis
Prenez un document de 5 pages (ex : rapport annuel). Testez 3 niveaux de prompt : (1) "Résume" → (2) "Résume en 3 paragraphes avec les chiffres clés" → (3) System prompt + format structuré. Observez la différence de qualité.
🌏 Exemple concret : Synthèse de rapports conformité dans une banque
1. Contexte métier
Une grande banque française reçoit chaque mois 200 rapports réglementaires (BCE, ACPR, AMF). Chaque rapport fait 30-50 pages. Les équipes conformité passent 3 jours par mois à les lire et les synthétiser pour la direction.
2. Enjeu
Réduire le temps de synthèse de 3 jours à 2 heures, tout en maintenant la qualité et la traçabilité. La conformité réglementaire impose une rigueur absolue.
3. Solution choisie
LLM en usage simple (prompting uniquement — pas de RAG, pas d'agent). Pourquoi ? Parce que les rapports sont intégralement fournis dans le contexte à chaque fois. Pas besoin de base de connaissances.
4. Mise en œuvre
- L'équipe conformité upload le rapport PDF dans ChatGPT Enterprise (environnement sécurisé, pas d'entraînement sur les données)
- Prompt système précis et réutilisable : "Tu es un expert en conformité bancaire. Synthétise ce rapport en respectant ce format : [1] Objectif du rapport, [2] Changements clés par rapport au mois précédent, [3] Actions requises, [4] Impacts sur nos processus"
- Un réviseur humain vérifie la synthèse en 5 minutes (vs 3h à lire l'original)
5. Gouvernance
- ✓ Chaque synthèse est horodatée avec le prompt utilisé
- ✓ Le prompt est versionné (tout changement validé par le comité conformité)
- ✓ Un comité conformité valide le format avant déploiement
- ✓ Pas de données confidentielles : les rapports sont déjà publics ou anonymisés
6. Résultats obtenus
×8
Gain de temps
2%
Taux d'erreur
~5€
Coût tokens/mois
100%
Qualité maintenue
💡 Point clé pour l'entretien
"Pas besoin d'architecture complexe — un LLM bien prompté résout déjà 60% des cas d'usage. L'erreur la plus fréquente est de sur-ingénierer." Cette phrase montre que vous avez de l'expérience terrain.