Retour aux cours
← Retour aux cours
Module 13 📅 30 minutes

LLM Agent Chaining : Orchestrer des workflows IA

Comprenez comment enchaîner plusieurs appels LLM, outils et validations pour créer des workflows IA complexes. Un concept clé pour le Product Owner qui spécifie des systèmes multi-agents.

🎯 Objectifs du module

  • Comprendre le concept de chaînage (chaining) d'appels LLM
  • Distinguer séquence, parallèle, condition et boucle
  • Savoir spécifier un workflow multi-agents en tant que PO
  • Connaître les frameworks : LangChain, CrewAI, AutoGen

1. Qu'est-ce que l'Agent Chaining ?

Un simple appel LLM (question → réponse) suffit pour des tâches basiques. Mais pour des cas d'usage métier complexes, il faut enchaîner plusieurs appels : certains en séquence, d'autres en parallèle, avec des validations intermédiaires. C'est ça, l'Agent Chaining.

🔑 Analogie PO

Imaginez un processus de validation de devis dans une banque : l'assistant 1) analyse la demande, 2) vérifie le scoring, 3) vérifie la conformité réglementaire, 4) synthétise une recommandation. Chaque étape est un appel LLM spécialisé — c'est un chain. En tant que PO, vous définissez le flux et les règles de passage d'une étape à l'autre.

➡️

Séquentiel

Étape A → B → C

🔄

Boucle

Répéter jusqu'à validation

🔀

Condition

Si X alors branche A

Parallèle

A et B en même temps

2. Les 4 patterns de chaining

1

Simple Chain (Pipeline linéaire)

L'appel LLM #1 produit un résultat → LLM #2 l'enrichit → LLM #3 le finalise. Exemple : Extraire une demande → Analyser le sentiment → Générer une réponse.

2

Router (Condition)

Un LLM "router" décide quelle branche prendre. Exemple : "Cette question concerne la facturation ou le support technique ?" → orientation vers le bon spécialiste.

3

Parallelization (Fan-out)

Plusieurs LLMs travaillent en parallèle puis un LLM "merge" les résultats. Exemple : Analyser le risque, la conformité et le coût en même temps, puis synthétiser.

4

Loop (Orchestrator-Worker)

Un "orchestrator" décompose une tâche complexe en sous-tâches, les distribue à des "workers", collecte les résultats, et itère si nécessaire.

3. Cas d'usage concret : Assistant crédit immobilier

Le workflow complet

  1. 1Extraction — LLM analyse la demande client et extrait les données clés (revenu, apport, durée)
  2. 2Scoring — LLM calcule le score de solvabilité via API bancaire
  3. 3Conformité — LLM vérifie les règles réglementaires (Loi Lagarde, taux d'usure)
  4. 4Synthèse — LLM produit la recommandation finale pour le conseiller
  5. 5Génération — LLM rédige la proposition de prêt

📝 User Story PO

"En tant que conseiller bancaire,
je veux un workflow automatisé qui analyse la demande,
vérifie la conformité et génère une proposition,
pour réduire de 70% le temps de traitement d'un dossier."

Critères :

  • ✓ Chaque étape est visible (tracing)
  • ✓ Si une étape échoue, le workflow s'arrête et notifie
  • ✓ Temps total < 30 secondes
  • ✓ Possibilité de dérogation manuelle à chaque étape

4. Frameworks de Chaining

Framework Créateur Approche Pour le PO
LangChain LangChain LCEL (LangChain Expression Language) — chaînage déclaratif ⭐⭐⭐ Le plus répandu
CrewAI CrewAI Multi-agents avec rôles (manager, analyste, rédacteur) ⭐⭐⭐ Très intuitif pour PO
AutoGen Microsoft Agents conversationnels entre eux ⭐⭐ Approche "conversation"
Vellum / Haystack Vellum / deepset Visual pipeline builder ⭐⭐ Interface visuelle

5. Rôle du PO dans l'Agent Chaining

📋

1. Définir le workflow métier

Quelles sont les étapes ? Dans quel ordre ? Quelles décisions sont prises à chaque étape ? Vous êtes le seul à connaître le processus métier.

⚠️

2. Spécifier les points de validation humaine

À quelles étapes un humain doit valider avant de continuer ? (Human-in-the-loop). Exemple : l'étape "signature du contrat" nécessite un conseiller.

📊

3. Définir les KPI par étape

Taux de succès de chaque étape, temps moyen, coût par étape. Si l'étape "scoring" échoue 20% du temps, c'est un problème à prioriser.

🔀

4. Valider les cas aux limites

Que se passe-t-il si l'IA ne comprend pas la demande ? Si la base de données est injoignable ? Si le LLM "scoring" hallucine ?

6. Pièges à éviter

⚠️ Latence cumulée

5 appels LLM à 3 secondes chacun = 15 secondes. Spécifiez un temps max total.

⚠️ Coût exponentiel

Chaque étape multiplie le coût. Un chain de 10 étapes peut coûter 10x plus qu'un simple appel.

⚠️ Hallucination en cascade

Une erreur dans une étape se propage à toutes les suivantes. Prévoyez des validations intermédiaires.

⚠️ Debugging complexe

Sans tracing (LangSmith), trouver l'étape qui a échoué est quasi impossible.

💡 Le mot du formateur

L'Agent Chaining est ce qui sépare un démo technique d'un produit IA robuste. En entretien, c'est un excellent sujet pour montrer votre maturité : plutôt que de parler d'un simple chatbot, décrivez un workflow multi-étapes avec validation humaine et monitoring. Combinez MCP (sources de données) + LangSmith (tracing) + Agent Chaining (orchestration) et vous avez une architecture IA complète à présenter.