Comment installer et utiliser Open WebUI et Ollama pour créer un 'clone ChatGPT' ENTIÈREMENT LOCAL

preview_player
Показать описание
Dans cette vidéo, je vous montre comment utiliser Ollama pour créer une version open source entièrement locale de ChatGPT à partir de zéro. De plus, vous pouvez exécuter plusieurs modèles simultanément à l'aide d'Ollama, ce qui ouvre un monde de possibilités.

Open WebUI, anciennement connu sous le nom d'Ollama WebUI, est une interface web conviviale conçue pour interagir avec des modèles de langage à grande échelle (LLM).
Elle prend en charge divers exécuteurs LLM, et bien plus.
Pour en savoir plus, vous pouvez consulter le projet sur GitHub à l'adresse suivante : Open WebUI sur GitHub.

Chapitres
00:00 Introduction
01:18 Installation
04:20 Installation des modèles
05:14 Création de modèle Mario
Рекомендации по теме
Комментарии
Автор

Très bonne explication merci pour ton ❤❤❤❤

mohammeddine
Автор

bonjour Mr très bon video 😁! question :et si en a installer ollama mistral sur terminal, doit on encore l instaler sur l interface via docker??

MandaAroniainaHArou
Автор

curieux de la configuration matérielle nécessaire pour faire tourner ces modèles, une idée d'où se sourcer ?

AmauryVanEspen
Автор

De mon usage, les meilleurs modèles sont openchat pour le général et starcoder pour le dev ;)

MultiMustash
Автор

Bonjour,
Merci pour cette vidéo!
Peut-on être non développeur et utiliser ollama?
Pour personnaliser un modèle sur une niche/domaine spécifique (ex: fitness), comment peut-on entrainer (donner à manger) à ce modèle ?
ave des sites spécifiques, vidéos, etc...?
Merci

anaelparrau
Автор

bonjour, lorsque j'ai open webui en local, en suivant exactement la meme chose que vous. Lorsque je vais dans paramètre et que je vais dans models je n'ai que les informations "manage LiteLLM models" je n'ai pas comme vous "manage ollama models" j'ai essayé plusieurs chose et a chaque fois j'ai le meme probleme. comment faire ?

davidbenoot
Автор

Bonjour j ai une question, quand on installe une interface Web et docker, on perd l avantage d avoir toute les données en local, de travailler en safe? Non? si on utilise le terminal, c est bien plus safe?

informatiquepixels
Автор

Merci pour vos vidéos, j'attends celle sur ollama open webui et visual source code avec impatience ..

zouzeAD
Автор

Merci, j ai une question, j ai d abord installé llava que je ne souhaite plus, à la place j ai pris mistral, comment supprimer ?

informatiquepixels
Автор

Merci beaucoup, très intéressant ? J'aimerai me créer une ia sur un sujet précis, est ce que je peux lui faire "lire-manger" des informations via un pdf ?

bugsletox
Автор

j'ai testé pas vraiment convaincu de ollama mais je viens de le réinstaller je rtrouve que chat est meilleur mais c'est peu etre une histoire de prompt on va dire ollam plus pointu je pense

heliomalohelio
Автор

Très bonne vidéo. Est-il possible d'accélerer la vitesse de réponse ?

Автор

j'attand la vidéo sur le fine tuning avec des fichier json et python

proia-bn
Автор

wahou mais la qualité de cette vidéo, jamais autant appris si vite, merci

GtoutcapT-ihwe
Автор

J'ai suivi beaucoup de vidéos, mais à chaque fois j'obtiens un "localhost refused to connect" ERR_CONNECTION_REFUSED
Peut être c'est dû au fait que j'ai une erreur 404 à ip:portollama/api
sur ip:portollama àa me dit bien que Ollama est en cours d'execution

Bandedegarantie