filmov
tv
RAG und lokale LLMs - Eigenen Datenquellen für lokale KI-Chatbots
Показать описание
In diesem Video erkläre ich, wie Retrieval Augmented Generation (RAG) in lokalen Sprachmodellen funktioniert und wie du es nutzen kannst, um eigene Datenquellen für deine Künstliche Intelligenz zu integrieren. Ohne Programmierkenntnisse kannst du mit RAG aktuelle und individuelle Informationen zu deinem Chatbot hinzufügen. Erfahre mehr über die Vorteile und die Funktionsweise von RAG, und wie du OpenWebUI und andere Tools einsetzen kannst, um deine KI-Anwendungen zu optimieren. Links zu weiterführenden Informationen und Tutorials findest du in der Videobeschreibung. Viel Spaß beim Entdecken und Ausprobieren!
Newsletter
📩 Bei Fragen, schreib mir gerne in den Kommentaren
Website
Inhalt:
00:00 - Einleitung
00:26 - Nachteile von lokalen Large Language Models (LLMs) - Daten sind veraltet
02:05 - Large Language Models (LLMs) trainieren
02:26 - So funktioniert RAG in lokalen Large Language Models (LLMs)
05:18 - RAG in einem lokalen Large Language Models (LLMs) anlegen
06:30 - RAG - Das passende Embedding Model finden
06:30 - RAG - Vorlage bearbeiten
#llm
#ki-wissen
#ki
Newsletter
📩 Bei Fragen, schreib mir gerne in den Kommentaren
Website
Inhalt:
00:00 - Einleitung
00:26 - Nachteile von lokalen Large Language Models (LLMs) - Daten sind veraltet
02:05 - Large Language Models (LLMs) trainieren
02:26 - So funktioniert RAG in lokalen Large Language Models (LLMs)
05:18 - RAG in einem lokalen Large Language Models (LLMs) anlegen
06:30 - RAG - Das passende Embedding Model finden
06:30 - RAG - Vorlage bearbeiten
#llm
#ki-wissen
#ki
RAG und lokale LLMs - Eigenen Datenquellen für lokale KI-Chatbots
Lokaler Unzensierter ChatGPT-Klon mit Deinen Daten: Ollama, LLaMA 3, RAG & Anything LLM
Python RAG Tutorial (with Local LLMs): AI For Your PDFs
Mistral, LLaMa & Co. - Kostenlose KI-Giganten lokal nutzen
Ollama und AnythingLLM: Eine praktische Anleitung
AI In A Minute: Lokale Dokumente mit lokalem LLM befragen (RAG,Ollama, Llama2)
Easy 100% Local RAG Tutorial (Ollama) + Full Code
'I want Llama3 to perform 10x with my private knowledge' - Local Agentic RAG w/ llama3
Generative AI: Meistere die semantische Suche mit LLMs und RAG
ChatGPT-Klon läuft lokal auf jedem Rechner | Alpaca/LLaMA ausprobiert
Wie werden Large Language Models (LLMs) wie ChatGPT trainiert?
Run All-in-One Local AI Infrastructure In MINUTES! (LLMs, RAG & More)
Lokale LLMs (Large Language Models)
Open WebUI: Lokaler Chatbot für lokale Large Language Models (LLMs) mit Ollama und GPT
Building Production-Ready RAG Applications: Jerry Liu
Chat With Your PDF's Using Local LLM's [Ollama RAG]
All You Need To Know About Running LLMs Locally
Huggingface GTP2 LLM mit Python und API Key lokal einrichten als Tutorial auf deutsch
Llama2 LLM lokal auf dem eigenen PC ausführen!
KI Workshop Offline RAG LLM
Wie du ein LLM in SQL nutzen kannst!
LLMs with 8GB / 16GB
FREE Local LLMs on Apple Silicon | FAST!
NSQL: lokale KI für SQL kann mit GPT-4 mithalten!
Комментарии