Ollama Tutorial - Tus propios modelos inteligentes en tu computador

preview_player
Показать описание
Cuando tenemos que usar módulos inteligentes Open Source no hay forma mas fácil actualmente que usar Ollama, este es un programa que nos permite descargar múltiples similares a GPT, solo que permite descargar múltiples modelos abiertos y que son gratuitos, lo que nos permite combinarlos, cambiar entre ellos y probarlos como queramos desde nuestro computador sin conexión a internet.

⭐ Cursos Recomendados

🎒 Servicios Recomendados

🎒 Otros Servicios

🗣 Redes Sociales

Puedes encontrar la lista de tutoriales de Nodejs en:

#ollama #llama3 #chatgpt #gpt #ia #inteligenciaartificial
Рекомендации по теме
Комментарии
Автор

Faz, genio podrías hacer un tutorial de como usar ollama con python y poder hacer fine tuning ? Gracias por todo como simpre.

Tifon
Автор

Yo ya lo pude conectar vía API para mis propios desarrollos

inteligenciafutura
Автор

YO CREE vida !!!! me funcionó estuve 1 horas xD

ashelli
Автор

Un vídeo muy interesante, gracias fazt!

Deus-lo-Vuilt
Автор

genial Fazt, todo esto como el anythingllm solo lo encontraba explicado con videos en inglés y es un rollo. Mucho mejor explicado en español y aún mucho mejor si es por ti jeje :)

SonGoku-pcjl
Автор

Muy muy bueno, me suscribo solo para seguir esta serie sobre IA local y RAG!

javaboy
Автор

Gracias por el vídeo muy bueno, una consulta conoces algún modelo que pueda usar que me permita dibujar gráficos estilos reportes ?

erickesaa
Автор

Excelente vídeo, gracias. Es posible instalar el modelo en una API Laravel para mi propio desarrollo ?

freddyramirez
Автор

yo tango un mac mini con 8 gigas de ram y una tarjeta grafica para llorar y alguna modelo pequeño, me lo carga y puedo hablar con el. Que bueno que Anything LLM esta para mac intel, asi lo puedo probar (aunque muy limitado por mi ordenador bajo en recursos).

airdany
Автор

Buen video hno! Una pregunta esa terminal, la que no es de windows, te vino con ollama no? Porque no aparece jaja

ernestoflores
Автор

Es genial en una parte por que todo es privado y es configurado por ti mismo, pero, algo costoso en cuanto a hardware
Aun así, muy buen video y ya esperamos que nos ensenies a entrenar "tuning" LLMs

snithfferx
Автор

Faby excelente video, una pregunta puedes ir alimentando el modelo conforme preguntes??

tecomAGS
Автор

Vengo del discord jaja Hola aquí apoyando a mis compañeros que vi o no los conocí en el hackatoom hola

ChristianRomero-kz
Автор

Cómo puedes entrenarlo para que te sirva para tareas específicas?

cb
Автор

Gracias por traernos estos videos crees que algun llm me corra en una laptop ryzen 7 5800h con 16 ram y una gtx 1650?? gracias

israellinarescedeno
Автор

Gracias amigo un buen tutorial la verdad... Es posible interactuar con nuestros archivos ?

juancazares-duvs
Автор

Si necesito detener las respuestas del modelo, como lo hago?

juandavidfrancofranco
Автор

fazt una duda intente usar la parte free de open ai pero tenido problemas con el error 429 a pesar de no haber echo solicitudes nunca, mi idea era crear una api rest implementando sus servicios, con ollama podría remplazar a openai ? y crear una api rest

incognitox
Автор

Me podrias indicar que características de pc recomiendas para que valla super fluido, x ejemplo gpu que recomeindas nvidia o amd por vram, ahora la cpu intel o amd, en tema de memorias que recomiendas una ssd o disco duro?

juanjolh
Автор

como se puede acceder a la API de Ollama, he hecho pruebas pero las respuestas JSON no son del todo buenas, incluso estaba probando con docker, pero no es lo mismo. Si puedes subir un tutorial así seria genial, gracias!

kannder