Retour à la prépa entretien
Accueil / Prépa Entretien / Module 2
Semaine 2 • 10h

RAG, Workflows & Approches Agentiques

Connectez les LLMs à vos données métier, orchestrez des processus complexes, et déployez des agents autonomes en contexte grand compte.

Progression
Module 2 / 5

🎯 Objectifs

1

Comprendre le RAG et savoir quand l'utiliser

2

Distinguer Workflow déterministe vs Agent autonome

3

Connaître LangChain, LangGraph, CrewAI et leurs usages

4

Savoir concevoir et argumenter une architecture d'agent

1. RAG — Retrieval-Augmented Generation

Architecture RAG

Le RAG répond au problème fondamental : "Le LLM ne connaît pas mes documents internes". Au lieu de réentraîner le modèle (coûteux, lent), on lui fournit le contexte pertinent à la volée.

Architecture RAG [Documents] → [Chunking] → [Embedding] → [Vector DB] ↑ [Question] → [Embedding] → [Similarity Search] → ↓ [Contexte + Question] → [LLM] → [Réponse sourcée]

1. Indexation

Découper les documents en chunks (≈500 tokens) → vectoriser avec un embedding model → stocker dans une base vectorielle (Pinecone, Weaviate, pgvector)

2. Recherche

Vectoriser la question → trouver les chunks les plus proches (similarité cosinus) → récupérer le contexte pertinent

3. Génération

Passer la question + les chunks au LLM → réponse contextualisée et sourcée

Quand utiliser le RAG ?

  • Données métier non publiques (procédures, contrats, rapports internes)
  • Documents évolutifs (mise à jour sans réentraînement du modèle)
  • Traçabilité : le LLM cite les documents sources, permettant la vérification
  • Domaine spécifique (réglementation bancaire, procédures médicales, contrats juridiques)

2. Workflows vs Agents

Workflow vs Agent - Comparaison

C'est l'une des questions les plus fréquentes en entretien. Sachez expliquer la différence et justifier le choix selon le contexte.

Critère Workflow Agent
Définition Séquence prédéfinie d'étapes Boucle décisionnelle autonome
Orchestration Déterministe (if / then / else) Pilotée par le LLM (ReAct)
Outils Appels prédéfinis dans le code Choix dynamique par le LLM
Mémoire State machine simple Buffer de conversation
Quand l'utiliser Processus stable, connu, répétitif Tâche ouverte, besoin d'adaptation
Exemple Validation document en 5 étapes fixes Support client qui cherche, répond, escalade

3. Frameworks 2026

LangChain

Chaîner des appels LLM. Le plus connu, le plus adopté. Documentation riche.

academy.langchain.com (gratuit)

LangGraph

Workflows en graphe avec état. Idéal pour les processus complexes avec conditions.

Cours DeepLearning.AI (gratuit)

CrewAI

Agents multi-rôles collaboratifs. Chaque agent a un rôle, des outils, des objectifs.

Doc officielle + exemples GitHub

AutoGen (Microsoft)

Agents conversationnels multi-agents. Adapté aux scénarios de délibération.

GitHub + tutoriels

✍️ Exercices pratiques

Exercice 1 : Concevez un prompt RAG

Sur un jeu de 5 documents métier (imaginez des procédures bancaires), concevez le prompt système idéal pour un assistant RAG. Quels chunks ? Quelle instruction système ? Comment gérer le "je ne sais pas" ?

Exercice 2 : Workflow vs Agent

Prenez un processus métier simple (ex : validation de devis en 4 étapes). Dessinez le workflow SANS agent, puis AVEC agent. Qu'est-ce qui change en termes de contrôle, de flexibilité, de risques ?

🌏 Exemple concret : Agent de traitement des réclamations dans une banque

1. Contexte métier

Une banque de détail reçoit 500 réclamations clients par jour (email, formulaire web, courrier). Processus actuel : tri manuel → affectation → traitement → réponse → clôture. Temps moyen de traitement : 4,5 jours.

2. Enjeu

Passer à moins de 24h de traitement, tout en respectant les contraintes réglementaires (réponse sous 15 jours ouvrés = obligation légale). Améliorer la satisfaction client et réduire les coûts.

3. Solution choisie

Agent de traitement (approche agentique). Pourquoi un agent et pas un workflow ? Parce que les réclamations sont imprévisibles : types variés, urgence variable, nécessité d'adapter la réponse au cas par cas. Un agent peut décider dynamiquement quels outils utiliser.

4. Architecture de l'agent

1. RÉCEPTION (déclencheur)
   ↓
2. CLASSIFICATION (LLM outil #1)
   → Catégorise : Incident technique / Erreur de transaction / Opposition / Demande info
   → Niveau d'urgence : Critique / Normal / Faible
   ↓
3. RECHERCHE (RAG outil #2)
   → Cherche dans la base de knowledge : procédures, FAQ, contrats client
   ↓
4. PROPOSITION DE RÉPONSE (LLM outil #3)
   → Génère un projet de réponse avec : analyse + solution proposée + délai
   ↓
5. DÉCISION (condition ReAct)
   → Si confiance > 85% ET réclamation standard → envoi automatique
   → Sinon → escalade humaine avec résumé généré
   ↓
6. CLÔTURE (outil #4)
   → Met à jour le CRM : catégorie, solution, temps, satisfaction prédite

5. Mise en œuvre étape par étape

  • Phase 1 (S1-2) : POC sur un seul type (erreurs de transaction = 35% du flux). Base RAG : 200 résolution passées. Métrique : 80% de classification correcte
  • Phase 2 (S3-4) : Validation humaine systématique. Feedback loop : les corrections humaines enrichissent la base RAG
  • Phase 3 (Mois 2) : Extension à tous les types. Seuil de confiance élevé à 90% pour déclencher l'envoi automatique

6. Gouvernance

  • Human-in-the-loop obligatoire pour les réclamations de montant > 5 000€
  • Traçabilité complète : chaque réponse générée est loggée (prompt, contexte, modèle, version)
  • Comité de supervision mensuel : taux d'erreur, escalade, satisfaction client
  • Conformité AI Act : système à risque limité (le LLM propose, l'humain décide)

7. Résultats obtenus

6h

Temps traitement (vs 4,5j)

40%

Résolution auto

+15

Pts NPS client

2,5

ETP économisés

💡 Point clé pour l'entretien

Pourquoi un agent et pas un simple workflow ? Parce que les réclamations sont imprévisibles : types, urgence, et solutions varient. Un agent peut s'adapter dynamiquement (ReAct). Un workflow serait trop rigide et nécessiterait des centaines de branches conditionnelles.