Tu propio Chat GPT localmente y Gratis - con Ollama y OpenWebUI

preview_player
Показать описание
Asi como tenemos modelos inteligentes como GPT de OpenAI, tambien existen otros modelos que son Open Source y podemos instalar en nuestro propio computador para tener nuestro propio ChatGPT, sin que use internet y completamente gratis, esto gracias a programas como Ollama que nos permiten instalar facilmente multiples modelos inteligentes y a programas como Open WebUI que nos permiten tener un chat similar a ChatGPT e incluso con mas caractersiticas como el poder usar multiples modelos a la vez, o intercambiarlos ademas de poder guardar nuestros chats, subir archivos o usar nuestros datos que tenemos en nuestro computador

⭐ Cursos Recomendados

🎒 Servicios Recomendados

🎒 Otros Servicios

🗣 Redes Sociales

Puedes encontrar la lista de tutoriales de Nodejs en:

#ollama #llama3 #chatgpt #gpt #openai
Рекомендации по теме
Комментарии
Автор

Te las mandaste Fatz.
Con ansias de que salga el autocomplete, ahi si que la va romper ollama.

fcomosan
Автор

Tengo ollama en mi Linux, con 16G de ram funciona medianamente bien en velocidad. Es genial tener una propia IA en casa. Aunque el cpu suele irse al 100 cuando está respondiendo a una pregunta.

edwinspiredev
Автор

Muy buen video. Siguiendo los pasos pude replicar la instalación de Gemma 2B. Además de aprender a instalar las herramientas aprendí que mi equipo está corto para estos usos y me impresionó las habilidades de cómputo que deben tener los grandes para que todas las personas puedan acceder a estos modelos a través de la nube

camiloquiroga
Автор

por otro lado tu canal siempre me ayuda mucho.

inteligenciafutura
Автор

por la interfaz parece que tambien se puede usar audio, buen video

Foo
Автор

para terminar te doy las gracias, eso de combinar modelos el resultado es muy bueno, acabo de hacer un aplicativo complejo en cuestion de minutos, en realidad esto cambia el panorama

inteligenciafutura
Автор

¿Tienes algúnt tuto para generacion de imagenes como difusion para ponerlo en nuestro docker OpenWebUI?

tuxtv
Автор

Genial hermano, acabo de seguir tu ejemplo y funciono 100%

martinfloresdev
Автор

Hola, podrias indicar caracteristicas minimas de hardware para un funcionamiento aceptable?

miguelangelmarcos
Автор

no he instalado la interface grafica aun pero lo otro ha funcionado y es relativamente facil de instalar y probar, le pregunte de react con redux y respondio bien, le pregunte de unity y codigos de ejemplo y fue buenas las respuestas, este modelo promete mucho falta ver si uno lo puede entrenar asi sea por medio de langchain

inteligenciafutura
Автор

Una consulta cuando copio el codigo Si Ollama está en tu computadora, usa este comando: me sale ese mensaje a que se debe "docker" no se reconoce como un comando interno o externo,
programa o archivo por lotes ejecutable.

ManuelVrteaga
Автор

Consulta a ver si entendí bien o mal, al poner la API de chatGPT, eso se traduce a que puedo utilizar todos los modelos de generación de texto creativo igual a como se utiliza en su propia interfaz de OpenAI, pero en este caso gratis o hay que comprar la API?

Finanzas_
Автор

He buscado como cargar un archivo a ollama para poder extraer información de él pero no he encontrado. Igual he buscado tambien algo parecido a "functions" pero tampoco hay. Para iniciar con algo privado en casa ollama es mas que suficiente

edwinspiredev
Автор

Consulta, puede hacer que conteste con tu propia base de datos?

firflyshaitan
Автор

es la primera vez que veo tu canal, muchas gracias por este gran tutorial y me gustaría saber como tienes el terminal de esa forma xd

ByFrank
Автор

Fazt podrías hacer un vídeo más a profundidad y dónde expliques cómo usar los modelos con el GPU?? y otras configuraciones

Giozar
Автор

A mí me da curiosidad si se pueden hacer cosas alocadas con Ollama de manera interna.

FoxDavoid
Автор

Hola, instale bien Ollama y luego open web ui, pero luego de correr localhost:3000 y abrir la interfaz gráfica, no me carga ningun modelo . Ya cargué vía "ollama run mistral" el modelo Mistral pero aun asi no lo reconoce. Además reinicié docker para poder aplicar cambios, pero no tengo resultados. Alguna idea de lo que puede estar sucediendo? Gracias.

Автор

a mi no me sirve dice que cuando lo descargo se habre una terminal a mi no me abre

oscarcano
Автор

Yo tengo un problema, el open WebUi no me reconoce ninguno de los modelos descargados, ¿Que puedo hacer en esos casos?

mauriciocorrea