Retour à la prépa entretien
Accueil / Prépa Entretien / Module 1
Semaine 1 • 8h

Fondamentaux des LLMs

Comprenez le fonctionnement des modèles de langage, maîtrisez le prompting, et sachez les utiliser efficacement dans un contexte grand compte.

Progression
Module 1 / 5

🎯 Objectifs

1

Comprendre le fonctionnement d'un LLM (tokenisation, contexte, température)

2

Maîtriser les techniques de prompting (zero-shot, few-shot, CoT, system prompt)

3

Connaître les limites : hallucinations, biais, coûts, données sensibles

4

Savoir choisir un modèle selon le besoin (taille, coût, latence, confidentialité)

Qu'est-ce qu'un LLM ?

Anatomie d'un LLM - Les 5 concepts clés

Un Large Language Model (LLM) est un réseau de neurones artificiel entraîné sur des milliards de textes (livres, articles, code, web). Sa seule capacité : prédire le mot suivant dans une séquence. Ce n'est pas une "intelligence" au sens humain — c'est un moteur de complétion statistique d'une sophistication inédite.

Concepts clés

Tokenisation

Le texte est découpé en tokens (pas des mots entiers). 1 token ≈ 0,75 mot en anglais, ~1,2 en français. Une page A4 fait ~500 tokens. Le coût d'un appel LLM est proportionnel au nombre de tokens.

Fenêtre de contexte

C'est la "mémoire" du modèle : le nombre de tokens qu'il peut traiter en une fois. De 8K tokens (Gemini 1.0) à 200K tokens (Claude 3, Gemini 1.5). Au-delà, le modèle "oublie" le début.

Température

Paramètre qui contrôle la créativité : 0 = déterministe (toujours la même réponse), 1 = créatif (réponses variées). Pour des tâches métier, on utilise souvent 0,1-0,3. Pour du brainstorming : 0,7-0,9.

Hallucinations

Le modèle invente des faits avec une entière assurance. Ce n'est pas un bug, c'est une conséquence de son fonctionnement : il prédit le mot le plus probable, pas la vérité. Toujours vérifier les sorties.

Techniques de prompting

Zero-shot

Question directe, sans exemple

"Résume ce document"

Few-shot

Avec 2-3 exemples en entrée

"Voici 3 résumés d'exemples. Fais pareil."

Chain-of-Thought

Raisonnement pas à pas

"Réfléchis étape par étape"

System Prompt

Définit le rôle et les règles du modèle avant toute interaction. Essentiel en contexte professionnel.

"Tu es un consultant senior spécialisé en transformation bancaire. Tu réponds de manière concise, avec des données chiffrées. Tu cites toujours tes sources."

Choisir le bon modèle

En entretien, on vous demandera pourquoi choisir tel modèle plutôt qu'un autre :

GPT-4o (OpenAI)

Polyvalent, vision, outils. Coût moyen. Standard industriel.

Claude 3.5 Sonnet

Excellent en analyse longue, code, raisonnement. Grande fenêtre (200K tokens).

Gemini 1.5 Pro

Très grande fenêtre (1M tokens). Intégration Google Cloud. Vision.

Mistral Large

Alternative européenne, souveraineté. Idéal pour les données sensibles.

📚 Ressources gratuites 2026

✍️ Exercices pratiques

Exercice 1 : Comparaison de LLMs

Testez 3 LLMs différents (ChatGPT, Claude, Mistral) sur le même prompt : "Explique la différence entre un LLM et une base de données traditionnelle à un directeur métier non technique". Comparez le ton, la précision, la longueur.

Exercice 2 : Du vague au précis

Prenez un document de 5 pages (ex : rapport annuel). Testez 3 niveaux de prompt : (1) "Résume" → (2) "Résume en 3 paragraphes avec les chiffres clés" → (3) System prompt + format structuré. Observez la différence de qualité.

🌏 Exemple concret : Synthèse de rapports conformité dans une banque

1. Contexte métier

Une grande banque française reçoit chaque mois 200 rapports réglementaires (BCE, ACPR, AMF). Chaque rapport fait 30-50 pages. Les équipes conformité passent 3 jours par mois à les lire et les synthétiser pour la direction.

2. Enjeu

Réduire le temps de synthèse de 3 jours à 2 heures, tout en maintenant la qualité et la traçabilité. La conformité réglementaire impose une rigueur absolue.

3. Solution choisie

LLM en usage simple (prompting uniquement — pas de RAG, pas d'agent). Pourquoi ? Parce que les rapports sont intégralement fournis dans le contexte à chaque fois. Pas besoin de base de connaissances.

4. Mise en œuvre

  1. L'équipe conformité upload le rapport PDF dans ChatGPT Enterprise (environnement sécurisé, pas d'entraînement sur les données)
  2. Prompt système précis et réutilisable : "Tu es un expert en conformité bancaire. Synthétise ce rapport en respectant ce format : [1] Objectif du rapport, [2] Changements clés par rapport au mois précédent, [3] Actions requises, [4] Impacts sur nos processus"
  3. Un réviseur humain vérifie la synthèse en 5 minutes (vs 3h à lire l'original)

5. Gouvernance

  • Chaque synthèse est horodatée avec le prompt utilisé
  • Le prompt est versionné (tout changement validé par le comité conformité)
  • Un comité conformité valide le format avant déploiement
  • Pas de données confidentielles : les rapports sont déjà publics ou anonymisés

6. Résultats obtenus

×8

Gain de temps

2%

Taux d'erreur

~5€

Coût tokens/mois

100%

Qualité maintenue

💡 Point clé pour l'entretien

"Pas besoin d'architecture complexe — un LLM bien prompté résout déjà 60% des cas d'usage. L'erreur la plus fréquente est de sur-ingénierer." Cette phrase montre que vous avez de l'expérience terrain.