Une "chaîne" LangChain est un pipeline de composants branchés : tes variables passent par un prompt, le LLM répond, un parser structure la sortie. Tu vas composer ta chaîne, voir le code Python généré, et tester une exécution.
LangChain, c'est une boîte à outils pour orchestrer du LLM en production. Au lieu de coder à la main "appel API → parse JSON → retry → log", tu assembles des composants standardisés qui se branchent en pipeline.
Un template de prompt avec des variables.
Ex : "Résume ce texte : {document}".
Tu remplis les variables au moment d'appeler la chaîne.
Le cerveau. GPT, Claude, Llama, Mistral… Plug-and-play : tu changes une ligne pour switcher de modèle, sans toucher au reste de ta chaîne.
Transforme la réponse texte en objet utilisable : string brut,
JSON, liste Python, ou objet Pydantic typé.
Garde l'historique de conversation pour des dialogues multi-tours.
Le LLM peut appeler des fonctions externes : recherche web, calculatrice, requête SQL…
Branche la chaîne sur ta base vectorielle pour des réponses ancrées (cf. la simu RAG).
{document: "le texte à résumer", format: "3 phrases"} ↓ injection des variables PromptTemplate → "Résume ce texte en 3 phrases : le texte à résumer" ↓ envoi au modèle LLM (GPT-4o) → "Le texte parle de... [réponse brute]" ↓ parsing OutputParser (JSON) → {"resume": "...", "themes": [...]}
Chaque étape est indépendante : tu peux changer le LLM, le parser, ou ajouter une étape sans tout réécrire.
Active/désactive les composants, change les options. Le code Python LangChain et l'exécution simulée se mettent à jour en temps réel.
Avec un input d'exemple, voici ce que renverrait ta chaîne :
| Composant | Notre simu | En production |
|---|---|---|
| Code généré | Snippet Python statique | Vrai code langchain exécutable via pip install langchain |
| Appel LLM | Sortie pré-écrite selon options | Vrai appel API (OpenAI, Anthropic, Groq) avec ta clé |
| Tools | Toggle qui ajoute du code | Tavily pour la recherche web, SerpAPI, custom tools, … |
| Memory | Toggle qui ajoute du code | ConversationBufferMemory, ConversationSummaryMemory… |
| Observabilité | Aucune | LangSmith : trace de chaque étape, coût, latence, erreurs (cf. module 12) |
| Streaming | Pas de streaming | Réponse mot à mot via .astream() pour de l'UX temps réel |
Le module 13 — LLM Agent Chaining et le module 12 — LangSmith couvrent l'orchestration et l'observabilité en profondeur.