RAG und lokale LLMs - Eigenen Datenquellen für lokale KI-Chatbots

preview_player
Показать описание
In diesem Video erkläre ich, wie Retrieval Augmented Generation (RAG) in lokalen Sprachmodellen funktioniert und wie du es nutzen kannst, um eigene Datenquellen für deine Künstliche Intelligenz zu integrieren. Ohne Programmierkenntnisse kannst du mit RAG aktuelle und individuelle Informationen zu deinem Chatbot hinzufügen. Erfahre mehr über die Vorteile und die Funktionsweise von RAG, und wie du OpenWebUI und andere Tools einsetzen kannst, um deine KI-Anwendungen zu optimieren. Links zu weiterführenden Informationen und Tutorials findest du in der Videobeschreibung. Viel Spaß beim Entdecken und Ausprobieren!

Newsletter

📩 Bei Fragen, schreib mir gerne in den Kommentaren

Website

Inhalt:
00:00 - Einleitung
00:26 - Nachteile von lokalen Large Language Models (LLMs) - Daten sind veraltet
02:05 - Large Language Models (LLMs) trainieren
02:26 - So funktioniert RAG in lokalen Large Language Models (LLMs)
05:18 - RAG in einem lokalen Large Language Models (LLMs) anlegen
06:30 - RAG - Das passende Embedding Model finden
06:30 - RAG - Vorlage bearbeiten

#llm
#ki-wissen
#ki
Рекомендации по теме
Комментарии
Автор

Super! Deine Videos sind so hilfreich. DANKE

ZeroName