RAG, Workflows & Approches Agentiques
Connectez les LLMs à vos données métier, orchestrez des processus complexes, et déployez des agents autonomes en contexte grand compte.
🎯 Objectifs
Comprendre le RAG et savoir quand l'utiliser
Distinguer Workflow déterministe vs Agent autonome
Connaître LangChain, LangGraph, CrewAI et leurs usages
Savoir concevoir et argumenter une architecture d'agent
1. RAG — Retrieval-Augmented Generation
Le RAG répond au problème fondamental : "Le LLM ne connaît pas mes documents internes". Au lieu de réentraîner le modèle (coûteux, lent), on lui fournit le contexte pertinent à la volée.
Architecture RAG [Documents] → [Chunking] → [Embedding] → [Vector DB] ↑ [Question] → [Embedding] → [Similarity Search] → ↓ [Contexte + Question] → [LLM] → [Réponse sourcée]
1. Indexation
Découper les documents en chunks (≈500 tokens) → vectoriser avec un embedding model → stocker dans une base vectorielle (Pinecone, Weaviate, pgvector)
2. Recherche
Vectoriser la question → trouver les chunks les plus proches (similarité cosinus) → récupérer le contexte pertinent
3. Génération
Passer la question + les chunks au LLM → réponse contextualisée et sourcée
Quand utiliser le RAG ?
- ✓ Données métier non publiques (procédures, contrats, rapports internes)
- ✓ Documents évolutifs (mise à jour sans réentraînement du modèle)
- ✓ Traçabilité : le LLM cite les documents sources, permettant la vérification
- ✓ Domaine spécifique (réglementation bancaire, procédures médicales, contrats juridiques)
2. Workflows vs Agents
C'est l'une des questions les plus fréquentes en entretien. Sachez expliquer la différence et justifier le choix selon le contexte.
| Critère | Workflow | Agent |
|---|---|---|
| Définition | Séquence prédéfinie d'étapes | Boucle décisionnelle autonome |
| Orchestration | Déterministe (if / then / else) | Pilotée par le LLM (ReAct) |
| Outils | Appels prédéfinis dans le code | Choix dynamique par le LLM |
| Mémoire | State machine simple | Buffer de conversation |
| Quand l'utiliser | Processus stable, connu, répétitif | Tâche ouverte, besoin d'adaptation |
| Exemple | Validation document en 5 étapes fixes | Support client qui cherche, répond, escalade |
3. Frameworks 2026
LangChain
Chaîner des appels LLM. Le plus connu, le plus adopté. Documentation riche.
academy.langchain.com (gratuit)
LangGraph
Workflows en graphe avec état. Idéal pour les processus complexes avec conditions.
Cours DeepLearning.AI (gratuit)
CrewAI
Agents multi-rôles collaboratifs. Chaque agent a un rôle, des outils, des objectifs.
Doc officielle + exemples GitHub
AutoGen (Microsoft)
Agents conversationnels multi-agents. Adapté aux scénarios de délibération.
GitHub + tutoriels
✍️ Exercices pratiques
Exercice 1 : Concevez un prompt RAG
Sur un jeu de 5 documents métier (imaginez des procédures bancaires), concevez le prompt système idéal pour un assistant RAG. Quels chunks ? Quelle instruction système ? Comment gérer le "je ne sais pas" ?
Exercice 2 : Workflow vs Agent
Prenez un processus métier simple (ex : validation de devis en 4 étapes). Dessinez le workflow SANS agent, puis AVEC agent. Qu'est-ce qui change en termes de contrôle, de flexibilité, de risques ?
🌏 Exemple concret : Agent de traitement des réclamations dans une banque
1. Contexte métier
Une banque de détail reçoit 500 réclamations clients par jour (email, formulaire web, courrier). Processus actuel : tri manuel → affectation → traitement → réponse → clôture. Temps moyen de traitement : 4,5 jours.
2. Enjeu
Passer à moins de 24h de traitement, tout en respectant les contraintes réglementaires (réponse sous 15 jours ouvrés = obligation légale). Améliorer la satisfaction client et réduire les coûts.
3. Solution choisie
Agent de traitement (approche agentique). Pourquoi un agent et pas un workflow ? Parce que les réclamations sont imprévisibles : types variés, urgence variable, nécessité d'adapter la réponse au cas par cas. Un agent peut décider dynamiquement quels outils utiliser.
4. Architecture de l'agent
1. RÉCEPTION (déclencheur) ↓ 2. CLASSIFICATION (LLM outil #1) → Catégorise : Incident technique / Erreur de transaction / Opposition / Demande info → Niveau d'urgence : Critique / Normal / Faible ↓ 3. RECHERCHE (RAG outil #2) → Cherche dans la base de knowledge : procédures, FAQ, contrats client ↓ 4. PROPOSITION DE RÉPONSE (LLM outil #3) → Génère un projet de réponse avec : analyse + solution proposée + délai ↓ 5. DÉCISION (condition ReAct) → Si confiance > 85% ET réclamation standard → envoi automatique → Sinon → escalade humaine avec résumé généré ↓ 6. CLÔTURE (outil #4) → Met à jour le CRM : catégorie, solution, temps, satisfaction prédite
5. Mise en œuvre étape par étape
- Phase 1 (S1-2) : POC sur un seul type (erreurs de transaction = 35% du flux). Base RAG : 200 résolution passées. Métrique : 80% de classification correcte
- Phase 2 (S3-4) : Validation humaine systématique. Feedback loop : les corrections humaines enrichissent la base RAG
- Phase 3 (Mois 2) : Extension à tous les types. Seuil de confiance élevé à 90% pour déclencher l'envoi automatique
6. Gouvernance
- ✓ Human-in-the-loop obligatoire pour les réclamations de montant > 5 000€
- ✓ Traçabilité complète : chaque réponse générée est loggée (prompt, contexte, modèle, version)
- ✓ Comité de supervision mensuel : taux d'erreur, escalade, satisfaction client
- ✓ Conformité AI Act : système à risque limité (le LLM propose, l'humain décide)
7. Résultats obtenus
6h
Temps traitement (vs 4,5j)
40%
Résolution auto
+15
Pts NPS client
2,5
ETP économisés
💡 Point clé pour l'entretien
Pourquoi un agent et pas un simple workflow ? Parce que les réclamations sont imprévisibles : types, urgence, et solutions varient. Un agent peut s'adapter dynamiquement (ReAct). Un workflow serait trop rigide et nécessiterait des centaines de branches conditionnelles.