Lokaler Unzensierter ChatGPT-Klon mit Deinen Daten: Ollama, LLaMA 3, RAG & Anything LLM

preview_player
Показать описание
Retrieval-Augmented Generation (RAG) ist eine der besten Methoden um LLMs zu trainieren. Man braucht eine Vectordatenbank, ein LLM und gute Daten. Auch unzensierte Dolphin Modelle klappen.

Videos, die dich interessieren könnten:

Links vom Video:

0:00 Übersicht
0:33 Ollama mit Llama3 Dolphin
2:15 Anything LLM
3:00 RAG und Vectordatenbanken
5:50 Daten vorbereiten und trainieren
6:50 App testen

Mit * gekennzeichnete Links sind Affiliate Links. Das heißt: Du untertützt den Kanal, ohne mehr Kosten für dich, Danke =)

#rag #llama3 #apple #openai #chatgpt #appleintelligence #nvidia #openai #chatgpt #grok #google #elonmusk #ai #ki #agi #llm #chatgpt #aiagents #Apple #meta #llama3 #dolphin
Рекомендации по теме
Комментарии
Автор

PS: Wie findest du den Ton mit "KI-Verbesserung"? =)

Arnold-Oberleiter
Автор

Hast mich als einen neuen Abonnent gewonnen. Ich finde nämlich Deine Stimme und den Dialekt hammer und ich werde das auch gleich nach ner Kippe und nem Bierchen mal versuchen. Ich melde mich, wenn irgendwas nicht klappen sollte. Aber so wie das aussah in Deinem Video, da kann ich mir nicht vorstellen, dass irgendwas nicht klappen sollte bei mir. Danke Dir, LG Maiki

schleiferslifer
Автор

Sehr gut, die freien LLM sind ein sehr interessantes Thema

peacepoint
Автор

Wie immer spitze Arnie! Wer mehr will findet ihn bei Udemy, der Kurs dort hat mich bereits beruflich sehr weitergebracht 🎉👍

GermanCarNerd
Автор

Wahnsinn, was Arnie hier alles für lau raushaut!

Jack__
Автор

Ich verwende Ollama seit einiger Zeit. Wie die Fehlermeldung zeigt wurde der Befehl "ollama serve" nicht ausgeführt, weil ollama garnicht beendet wurde und somit der Port 11434 noch belegt ist.
Wenn man ollama mit serve startet (zumindest auf dem Mac) werden sämtliche Meldungen im Terminal ausgegeben.

SierraX
Автор

Cooles Video, gibt es eine Alternative auf deutsch?

sauvage
Автор

2:53 bis hierher komme ich, dann bekomme ich statt einer Antwort entweder die Fehlermeldung: "Could not respond to message.
Ollama call failed with status code 400: unexpected server status: llm server loading model" oder "Could not respond to message.
fetch failed"

manublue
Автор

hi, ist das normal das das 8b modell in der powershell nennen wirs mal annehmbar läut (man kann zusehen wie sich die sätze aufbauen aber echt ok)
aber sobald ich dasselbe modell im Any LLM anspreche kann man für jedes wort locker nen kaffee kochen?

sonkite
Автор

FYI: Wenn du keine Firwall hast, dann senden diese Tools alle Daten an ihre Server.

mirsosormi