[Agentic RAG & Mistral AI] Construisez un assistant conversationnel avec LangChain et LlamaIndex

preview_player
Показать описание
Dans cette nouvelle vidéo, je passe Mistral Large au banc d'essai pour le développement d'un Assistant RAG multi-agents en utilisant LangChain et LlamaIndex.

Je montre également l'intégration de LangSmith pour le monitoring et de TruLens afin de mesurer la qualité du RAG avec le RAG Triade.

Dans une 1ère partie, je présente l'actualité de ces frameworks: nouveaux modèles et function calling pour Mistral AI, refonte des API pour LangChain et les fonctionnalités de RAG avancé comme l'automerging et le sliding-window pour LlamaIndex

Chapitres:
0:00 Introduction
1:05 Démo de l'assistant RAG
3:12 Les nouveautés Mistral AI et LangChain
5:40 Présentation de LlamaIndex et du RAG Triad
7:39 Début session live coding
9:50 Intégration de LangChain dans mistral découverte
12:20 Présentation du projet RAG Assistant
13:48 Agent RAG avec LangChain
18:33 Ajout de LangSmith pour le monitoring
21:56 Agent RAG avec LlamaIndex
26:53 Mesure de la qualité avec le RAG Triad et TruLens
28:10 Conclusion

Рекомендации по теме
Комментарии
Автор

Bravo pour le bon équilibre entre vulgarisation, pressions techniques et démo

SimonLouvet
Автор

Merci Pierre. Vos vidéos sont une mine d'or et tout est sur le Git !
un tuto avec un cas pratique simple, avec les temps de calcul GPU, la conf hardware utilisée : ca serait sympa. Cela dit j'ai déjà assez de contenu pour m'occuper un bon moment 😅

alexandrelancar
Автор

C'est parfait 👍,
Serait-il possible de faire un tutoriel sur la création d'un assistant RAG capable de traiter des données non structurées comme des images et des tables ?
Merci !

hamdielemin
Автор

peux tu egalement commiter le requirement.txt de python pour le faire tourner en local Merci !!

antoineartaud