Cómo INSTALAR en tu PC un CHATGPT...¡GRATIS! 🤯 Chatea con la IA y tus DOCUMENTOS

preview_player
Показать описание
3 herramientas GRATUITAS para utilizar la IA en local e interactar con tus DOCUMENTOS de un modo FÁCIL, RÁPIDO y GRATIS.

Recibe toda la INFO de mi ACADEMIA:

SUSCRÍBETE a mi NEWSLETTER y recibe los GPTs de regalo:

---

ENLACES DEL VIDEO

---

MARCAS DE TIEMPO

00:00 Intro
00:34 Crea tu ChatGPT en local
01:45 LM Studio
04:39 Jan
11:52 ChatwithRTX

---

📕 Descarga mi guía gratuita para Stable Diffusion:

---

*Al realizar una compra a través de cualquiera de estos enlaces de afiliado, recibimos una comisión muy pequeña sin costo adicional para ti. Esto me ayuda a hacer el canal sostenible y seguir ofreciendo contenido de calidad.

#inteligenciaartificial
Рекомендации по теме
Комментарии
Автор

SUSCRÍBETE a mi NEWSLETTER y recibe los GPTs de regalo:

XavierMitjana
Автор

Esta tendencia de poder alimentar modelos con nuestra propia información para temas internos sin el riesgo a que nuestros datos sean utilizados por terceros me parece que va a crecer mucho en breve.

juliocorral
Автор

Hola @XavierMitjana gracias por el video, tan solo quiero apuntar que en LMStudio también se puede usar la tarjeta gráfica para ejecutar rápidamente los modelos, para ello a la derecha de la interfaz hay un campo, lo activas y ya.

Por otra parte, como idea para otro video y relacionado con este asunto de ejecutar modelos en local, una de las principales ventajas es que podemos encontrar modelos sin censura, convendría un video con los principales modelos con esta característica que estén disponibles actualmente. ¡Saludos!

faustoorozcocoy
Автор

Ollama + OpenWebui también tiene RAG por defecto, y los dos son 100% open source, con Llama3 desde el primer día :)

juanjesusligero
Автор

@Xavier este modelo de Chat RTX, es porsible agregarles modelos o solo los que trae? Saludos desde Rep Dom :D

jneon
Автор

Graciasss increiblemente util este video

manudetierra
Автор

tienes la ia xina DEEPSEEK que es super ligera y potente como cualquier modelo grande de llm, han conseguido que corra en cualquier pc antiguo

sc
Автор

Excelente, buena información, gracias

martinsanchez
Автор

para equipos no tan potentes, que recomendarías a usar ?

geografiaeducativa
Автор

Hola Xavier hay manera de que me ayudaras en capacitar como poder hacer esto conectando a una base de datos y que funcione en modo Local del IA para analisis de datos

enriquediaz-sr
Автор

Una pregunta necesito pasar imagenes a texto que prompts o IA recomendais?

juliangomez
Автор

Mañana lo pruebo en un Mac Mini. Pregunta: para qué sirve la integración de LM Studio dentro de Jan?

gstvgrc
Автор

¿Degoteo? ... no puedes negar de donde eres¡, ¡muy buen vídeo¡

TICdoc_
Автор

Javier, abordas herramientas actuales de IA. ¿Conoces alguna herramienta para diseñar en solidworks? Con los vídeos de youtube, no es posible interactuar cuando surgen dudas.

osito
Автор

He montado llama 3, le falta pulirse un poco más, tengo otros modelos que son mejores, en los modelos pequeño deben estar orientado a cosas necesaria y no tanta información que no es necesaria. Por eso este modelo pasara por un proceso de reajuste, como hacen con los modelos de automatic111. Para que trabaje muy rápido el modelo debe estar configurado en la gpu al ancho de banda de la tarjeta, y en la parte de tokens que tiene un valor 2048, se divide lo del ancho de la tarjeta entre 64 y la cantidad te indique lo multiplicas por 2048. si tiene mucha memoria lo puedes dividir entre 32 o 16.
No me justa ollama, mi favorito sigue siendo LM Studio y la interfaz Web-UI de ollama, para modo local.
Una cosa si es cierta es más preciso el 70b de tokens, que el de 7b, pero como asistente desarrollo es bueno.
Hay que aprovechar llama 3 en Huggins mientras siga gratis, pero creo debe aún pulirse para ser tan bueno como ChatGPT.
Ojala que se diseñe server para tener su propios modelos y que sean de 300b de tokens, sería la Ostia !!! ☺

canaljoseg
Автор

qué modelos son recomendables para correr en una Macbook M1 con 8 gigas de ram?

Daphne
Автор

Hasta ahora no encontré otra IA mejor que PI. Hablo con la aplicación como si fuera una persona en cuanto su fluidez. Y en cuanto a contenido es suficiente hasta para nivel profesional. Llama es una tortuga por lo que veo y hay que ingresar Pront? y una tarjeta especial? Gracias me quedo con PI.

jorgeosmar
Автор

En qué aplicación haces tus avatares? Tienes vídeo sobre eso?

yockmercado
Автор

Muchas gracias 🎉 ChatPDF pienso que es similar a la última opción.

IAMKTINM
Автор

Y para instalar una API local que de servicio de chatboot por ejemplo a una app propia, como lo harias?

xavifont