Retour aux simulations
● Simulation interactive 100% local · sans API

LangChain, en 3 étapes visuelles.

Une "chaîne" LangChain est un pipeline de composants branchés : tes variables passent par un prompt, le LLM répond, un parser structure la sortie. Tu vas composer ta chaîne, voir le code Python généré, et tester une exécution.

📚 AVANT DE LANCER LA SIMU · ANATOMIE D'UNE CHAÎNE

Une chaîne = brancher des Lego.

LangChain, c'est une boîte à outils pour orchestrer du LLM en production. Au lieu de coder à la main "appel API → parse JSON → retry → log", tu assembles des composants standardisés qui se branchent en pipeline.

REQUIS · 3 COMPOSANTS DE BASE
📝
1. PROMPT TEMPLATE

Un template de prompt avec des variables. Ex : "Résume ce texte : {document}". Tu remplis les variables au moment d'appeler la chaîne.

🤖
2. MODEL (LLM)

Le cerveau. GPT, Claude, Llama, Mistral… Plug-and-play : tu changes une ligne pour switcher de modèle, sans toucher au reste de ta chaîne.

⚙️
3. OUTPUT PARSER

Transforme la réponse texte en objet utilisable : string brut, JSON, liste Python, ou objet Pydantic typé.

OPTIONNEL · POUR ALLER PLUS LOIN
💾
MEMORY

Garde l'historique de conversation pour des dialogues multi-tours.

🔧
TOOLS

Le LLM peut appeler des fonctions externes : recherche web, calculatrice, requête SQL…

📚
RETRIEVER (RAG)

Branche la chaîne sur ta base vectorielle pour des réponses ancrées (cf. la simu RAG).

▼ LE FLUX D'UNE CHAÎNE EN EXÉCUTION
{document: "le texte à résumer", format: "3 phrases"}
                       ↓ injection des variables
PromptTemplate  →  "Résume ce texte en 3 phrases : le texte à résumer"
                       ↓ envoi au modèle
LLM (GPT-4o)  →  "Le texte parle de... [réponse brute]"
                       ↓ parsing
OutputParser (JSON){"resume": "...", "themes": [...]}

Chaque étape est indépendante : tu peux changer le LLM, le parser, ou ajouter une étape sans tout réécrire.

🧪 À TON TOUR · LA SIMULATION

Compose ta chaîne. Vois le code se générer.

Active/désactive les composants, change les options. Le code Python LangChain et l'exécution simulée se mettent à jour en temps réel.

📝
REQUIS · PROMPT TEMPLATE
Choisis ton cas d'usage
🤖
REQUIS · MODEL (LLM)
Quel modèle utiliser ?
0.3
⚙️
REQUIS · OUTPUT PARSER
Format de la sortie
OPTIONNELS
💾
OPTIONNEL · MEMORY
Conversation multi-tours
🔧
OPTIONNEL · TOOLS
Recherche web + calculatrice

📜 Code Python LangChain

▶️ Exécution simulée

Avec un input d'exemple, voici ce que renverrait ta chaîne :

INPUT (variables injectées)

          
OUTPUT (formaté par le parser)

          
🤔 POURQUOI PASSER PAR LANGCHAIN ?

Sans LangChain, tu codes tout. Avec, tu composes.

SANS LANGCHAIN

Tout à la main, à chaque projet

  • 🔴 Appel HTTP brut à l'API OpenAI / Anthropic
  • 🔴 Parsing JSON manuel + gestion des erreurs de format
  • 🔴 Retry, timeout, rate limit : à coder soi-même
  • 🔴 Changer de modèle = réécrire la moitié du code
  • 🔴 Pas de standard pour brancher RAG, tools, mémoire
AVEC LANGCHAIN

Composants prêts à brancher

  • 🟢 Une interface unique pour tous les LLM
  • 🟢 Parsers JSON / Pydantic / liste avec validation auto
  • 🟢 Retry, fallback, streaming intégrés
  • 🟢 Switch de modèle = changer 1 ligne
  • 🟢 Écosystème : tools, memory, RAG, agents, traçabilité (LangSmith)
🔬 EN VRAI · CE QU'ON A SIMPLIFIÉ

Notre simu vs la vraie vie.

Composant Notre simu En production
Code généré Snippet Python statique Vrai code langchain exécutable via pip install langchain
Appel LLM Sortie pré-écrite selon options Vrai appel API (OpenAI, Anthropic, Groq) avec ta clé
Tools Toggle qui ajoute du code Tavily pour la recherche web, SerpAPI, custom tools, …
Memory Toggle qui ajoute du code ConversationBufferMemory, ConversationSummaryMemory
Observabilité Aucune LangSmith : trace de chaque étape, coût, latence, erreurs (cf. module 12)
Streaming Pas de streaming Réponse mot à mot via .astream() pour de l'UX temps réel
★ POUR ALLER PLUS LOIN

Le module 13 — LLM Agent Chaining et le module 12 — LangSmith couvrent l'orchestration et l'observabilité en profondeur.