Tutorial Ollama en Español. Tu LLM Privado en Casa. Instalar, Usar y WebUI con Ollama.

preview_player
Показать описание
¡Bienvenidos a nuestro tutorial en español sobre cómo instalar y utilizar Ollama en tu propio ordenador! En este video, te guiamos paso a paso para que puedas ejecutar un gran modelo de lenguaje (LLM) de manera local, preservando tu privacidad, sin conexión a internet y sin costes adicionales aparte de la electricidad y el hardware mínimo necesario.

🔧 Instalación de Ollama:

Te mostramos cómo instalar Ollama según tu sistema operativo (Mac, Linux, Windows con WSL2).
Enlaces y consejos para descargar y configurar Ollama de manera eficiente.

Aprenderás a ejecutar Ollama desde la línea de comando.
Te enseñamos cómo descargar modelos open source como Mistral 7B.

💬 Uso Práctico de Ollama:

Demostración en vivo de una conversación con Mistral 7B, mostrando su capacidad de hablar en español, entender conceptos como Bitcoin, realizar traducciones y más.
Discutimos las ventajas de tener un LLM en local, incluyendo privacidad y libertad de censura.

🚀 Rendimiento y Experiencia:
Comentarios sobre el rendimiento de Ollama en una máquina virtual sin GPU.
Impresiones sobre la calidad de las respuestas y la experiencia de usuario.
No te pierdas este completo tutorial para convertirte en un experto en el uso de modelos de lenguaje soberanos como Ollama. ¡Dale play y empieza tu aventura en el mundo de los LLM locales!

👉 No olvides suscribirte y activar las notificaciones para más contenido sobre tecnología y modelos de lenguaje. ¡Deja tus preguntas y comentarios abajo!

#ollama
Рекомендации по теме
Комментарии
Автор

Muchas gracias tío, muy bueno el canal

jcorrochano
Автор

muchas gracias amigo, me ha servido tu guía
éxitos y que Dios te bendiga!

nilobrayanvallejopablo
Автор

Buen vídeo, podrías explicar si es posible hacer fine tuning sobre algún model descargado? Gracias

levelup
Автор

Para el modelo, ¿cómo puedo generar un LLM con mis documentos en formato PDF?

jsalgadop
Автор

Muy buen video, sería genial que pusieras los diferentes enlaces a recursos web que usas en la descripción del video, por lo demás bastante bien. :)

HispanoJMGP
Автор

Buen video, Ollama parece muy fácil de utilizar. Puedes hacer un video mostrando cómo se puede hacer un asistente o un chatbot utilizando Ollama y su api?

patranas
Автор

Tengo una duda: ¿cada vez que quiero usar UI tengo que cargar docker con todo eso y esperar esos 2 o 3 minutos? Gracias.

monoh
Автор

sabes si este LLM me podría ayudar a explicar código de java/springboot?

oislas
Автор

Pregunta, como se instala para que unos 4 usuarios se puedan conectar a PC en intranet?

royotech
Автор

Gracias por la intencion pero seria mas util la creacion de un tutorial integrado con una aplicacion propia por ejemplo con Streamlit o Flask... y sobre todo conetcado a las bases internas... gracias su amable ayuda

lordboss
Автор

Si, hay más variedad y modelos más grandes, pero también necesitas más gpu

krbr
Автор

Tienes acceso al API original de cada modelo o tiene un API propia y única y el resuelve cuando le indicas uno u otro modelo??

jcorrochano
Автор

ya
pero como lo ejecuto en un ambiente de codigo como python ? no quiero usarlo en el navegador. quiero usarlo en cualquier ambiente como python o js

jodter
Автор

Con llm studio y gpt4all también es en privado en local no?

jossejosse