Instalar Llama 2 IA en PC | Instalar chat GPT en local, LM Studio mejor programa para modelos LLAMA

preview_player
Показать описание
Veremos como poder usar modelos de inteligencia artificial generadores de texto como Meta LLAMA 2 IA , Vicuña IA y otros parecidos a CHAT GPT de forma local gracias al programa LM STUDIO, tutorial completo.
#llamaIa #metaIA #inteligenciaartificial #chatgpt #tutoriales #lmstudio
▼SI, TE HA AYUDADO, APOYA AL CANAL CON UNA DONACIÓN▼:
- Si eres de Perú YAPEANOS:
▼GRACIAS▼

Pagina del programa LM Studio:
Modelos recomendados
Recomiendo que busquen este habla bien el español pero esta censurado : MythoMax L2 13B
GUANACO sin censura :
Pagina donde puedes encontrar varios modelos:

Tags:
Usar programas tipo chat gpt en computadora, usar llama 2 IA en local, como instalar LM Studio, tutorial en español LM STUDIO 2023, LLAMA IA 2023, como instalar modelos de LLAMA sin censura, chat GPT sin censura tutorial
Рекомендации по теме
Комментарии
Автор

Pagina del programa LM Studio:
Modelos recomendados
Recomiendo que busquen este habla bien el español pero esta censurado : MythoMax L2 13B
GUANACO sin censura :
Pagina donde puedes encontrar varios modelos:

▼SI, TE HA AYUDADO, APOYA AL CANAL CON UNA DONACIÓN▼:
- Si eres de Perú YAPEANOS:
▼GRACIAS▼

tutorialessos
Автор

Este es el mejor tutotial, ya que comienza indicando los requerimientos de la pc, excelente

eltuneldelmisterio
Автор

MI LIKE BUEN VIDEO Y BIEN EXPLICADO... SOBRE TODO DONDE PODEMOS GUARDAR LOS MODELOS GRACIAS BRO.

Jesulex
Автор

Hay alguna forma de generar audio a partir de texto con este mismo programa? por cierto buen video me sirvió mucho

MsterAnime
Автор

🎯 Key Takeaways for quick navigation:

00:00 💻 *Consideraciones antes de instalar LM Studio y modelos*
- Recomendaciones para la computadora: al menos 16 GB de RAM, procesador Ryzen 5 o similar, tarjeta de video Nvidia para mejor rendimiento.
- Espacio en discos duros: es necesario tener suficiente espacio, especialmente en el disco donde se ejecutará el programa y donde se guardarán los modelos.
- Descarga e instalación de LM Studio: desde la página oficial, descarga el programa, ábrelo y sigue los pasos para la instalación.
02:02 📥 *Descarga e instalación de modelos de inteligencia artificial*
- Elección del modelo: se recomienda un modelo como Guanaco de 13 billones de parámetros, pero se proporciona un enlace para explorar otros modelos.
- Descarga del modelo: el proceso de descarga e instalación del modelo Guanaco se realiza desde la interfaz de LM Studio.
- Consideraciones al elegir modelos: se menciona la importancia de la compatibilidad y la capacidad de la computadora para manejar modelos más pesados.
04:06 🗣️ *Inicio de la sección de chat y configuración*
- Carga del modelo: cómo cargar el modelo descargado en la sección de chat de LM Studio.
- Uso del chat: se muestra cómo interactuar con el modelo para generar respuestas en español.
- Ajustes para aumentar contexto: la configuración para incrementar el contexto del modelo, permitiendo respuestas más extensas.
05:53 🧹 *Gestión del caché y eliminación de conversaciones*
- Peso de las respuestas: se destaca que las respuestas generadas pueden ocupar varios megabytes o incluso gigabytes.
- Eliminación de conversaciones: cómo borrar las conversaciones y liberar espacio en el caché del disco.
- Consideraciones sobre espacio en disco: la importancia de tener suficiente espacio en el disco C y el disco donde se instala el programa y modelos.
06:36 ⚙️ *Optimización con tarjeta de video Nvidia*
- Aceleración con GPU: cómo activar la aceleración con la tarjeta de video Nvidia para mejorar el rendimiento.
- Configuración adicional: ajustes para mejorar la velocidad de procesamiento al utilizar la tarjeta de video.
- Experiencia personal: el presentador comparte su experiencia y cómo la optimización puede hacer que la IA responda de manera similar a GPT-3, pero con algunas consideraciones sobre la potencia de la computadora.
07:28 📚 *Conclusión y agradecimientos*
- Resumen final: se recapitulan los puntos clave sobre la instalación, configuración y optimización de LM Studio y modelos.
- Canal de tutoriales: el presentador menciona que su canal ofrece tutoriales variados, y agradece a la audiencia por ver el video.

Made with HARPA AI

victoraguilardiaz
Автор

como podria, por ejemplo con este porgrama subir varias leyes libros y demas (trabajo en abogacia) y preguntarle por ejemplo que me busque en articulo dice tal cosa o sea de una ley, y luego si puedo comparar con un libro que le subi anteriomente para extraer parrafo, se puede?

gonzalo
Автор

y que otro lenguaje recomiendas amigo ?? llama 2 por ejemplo

GuitarSouDX
Автор

existira una forma de api para conectarlo a python bro?? no importa si es local o de forma nube

RonalRomeroVergel
Автор

Tengo 12gb de ram, intel i5 6400, y un nvidia gt 610 1gb ddr3 .... Claramente no me funciona ni el mas simple o por un problema de driver o capacidad ¿Estoy en lo correcto? Pensaba comprar 8gb de ram mas pero que dicen ustedes? Tarjeta de video tambien?

InsaurraldetomasJoaquinBertola
Автор

TENGO UNA RAM DE 64 GB UNA RTX 3060 12GB VIRAM FUENTE DE ALIMENTACION 1000W PLACA MADRE GYGABITE GAMING X V2 PROCESADOR RINZEN 7-5700-X ¿ES UN ORDENADOR CLASE MEDIA? DISCOS DUROS M.2

Jesulex
Автор

500 GB de memoria SSD es suficiente? O recomiendas 1 TB?

Chile.
Автор

muy buen video, lo lamentable es que la primera consulta sobre la batalla de rancagua, de la independencia de chile, el modelo guanaco me la contó como una gran victoria independentista, lo que completamente falso ya que los realistas nos volaron el OGT XDDDD

eroscl
Автор

no entendi muy bien los requisitos podrias ponerlos aqui para amd o nvdia gracias

danielperez
Автор

Hola, disculpa ¿es offline el programa?

Pablo.Dragster
Автор

Se pueden crear APIs con ese programa?

Pala_tech_
Автор

cual crees que sea mejor esta o mistral

GuitarSouDX
Автор

te anda muy lento para tener una tarjeta nvidia rtx3060, puede que solo este usando su cpu, yo tengo una laptop con 16 de ram y una rtx 2060q y me responde mucho mas rapido, casi instantanea la respuesta, ademas se demora en cargar menos de 3 segundos, aclaro que uso ollama en archlinux, es mejor que lmstudio, tambien dispone de una interfaz web, pero es mejor por consola.

matzcontreras
Автор

Se puede agregar archivos para que busque informacion de esos archivos? y utilizarlos como base de datos.

joansabotig
Автор

Se puede utilizar para cargar y chatear con documentos locales, alguien sabe cómo hacerlo ?

david-lista