Olvídate de GitHub Copilot: Crea tu propio SUPER COPILOT con Llama 3.1 | Tutorial

preview_player
Показать описание
Hoy te traemos una verdadera revolución en el mundo de la inteligencia artificial: ¡Llama 3.1 ha llegado! 🎉 ¿Listo para conocer cómo este increíble modelo está compitiendo con gigantes como GPT-4o y Claude 3.5 Sonnet? ¡No te lo puedes perder!

En este video, te mostramos cómo puedes aprovechar el poder de Llama 3.1 para transformar tu programación con copilotos de código y chatbots avanzados. ¡Y lo mejor de todo es que puedes hacerlo sin gastar un solo centavo! 🤑

🔹 Utiliza Together AI y sus generosos $5 en crédito gratuito para experimentar con el modelo de 405B parámetros.
🔹 Descubre Groq, una plataforma que te ofrece acceso gratuito a modelos poderosos como el de 70B parámetros.
🔹 Aloja localmente con Ollama el modelo de 8B para un autocompletado rápido y eficiente.

No dejes que Github Copilot tenga todo el control. Con estas herramientas, puedes tener el poder en tus manos. Además, te enseñamos a configurar todo paso a paso, desde la descarga de Ollama hasta la integración con la extensión Continue en tu editor de código favorito. ¡Es más fácil de lo que piensas! 😎

¡No olvides suscribirte, darle like y compartir este video con tus amigos! 🔔 Mantente al tanto de las últimas novedades en tecnología e inteligencia artificial, y únete a nosotros en esta emocionante aventura. ¡Nos vemos en el próximo video! 🤖💻

🔗 Enlaces útiles:

#llama3 #meta #facebook #copilot #github #ai #inteligenciaartificial #ias #programacion #code #programming #groq #llm #javascript #python #vscode #gratis #tutorial
Рекомендации по теме
Комментарии
Автор

¡Un gran trabajo! Me encanta la forma en que explicáis conceptos complejos de manera sencilla y atractiva. Estoy aprendiendo mucho con cada vídeo. Gracias por compartir vuestro conocimiento y esfuerzo.

MauricioOjeda-jt
Автор

Excelentes, cada vez mas opciones para usar l a IA en todos los ambitos.

adriintoborf
Автор

Gracias por hacer estos vídeos, realmente explicas muy bien !!!

y_thedreamer
Автор

Muchisimas gracias por tu trabajo! Tengo una duda, si tengo la api key de groq en Continue, ya no necesito installar Ollama localmente? y el autocompletado tambien puedo poner en modelo que ofrece groq?

davideh
Автор

Gracias por el video, podrias hacer uno explicando como integrar continue de VScode y openrouter para poder elegir con una sola API entre muchos LLM y precios. Gracias

victorg
Автор

Pregunta, si pago del servicio de together por el de 405b, podría usarlo en autocompletado?

cho_k
Автор

Si uso grok, no se consume el saldo de los 5usd?

Автор

muy bueno el video, una pregunta, cuando acabas una sesión con tu chat en local, a través de la ventana cmd, como tienes que hacer para volver a iniciar sesión? No se si me explico, minuto 3:44 del video, dices para cerrarla /éxit, pues si después apago el ordenador y lo vuelvo a encender como lo abro de nuevo?

marcosgrima
Автор

Hola tengo una pregunta
Si instalo ollama solo sería el de 8B
Si consigo la api de groq tendría el de 70b
Si consigo together podría instalar 450 b

Ósea que si instalo groq no necesito instale localmente nada cierto,

edwinamaya
Автор

Mcuhas gracias por estos videos tan geniales!
tengo unas dudas, sabes como aplicar esta IA para generar imagenes de manera local? ya que hasta el momneto solo veo que se puede directamente en Whatsapp o en meta chat pero se debe iniciar sesion con una cuenta de facebook o instagram y no tengo ningina de las 2

me gustaria poder usar esta herramienta de manera local para generar imagenes sin marca de agua como lo hace whatsapp y ya que cuento con un PC que considero es buen hardware (Ryzen 7 5700x - 32gb RAM - grafica Rc6800) me gustaria probar un modelo potenete de manera local para genenrar imagenes

Te agradezco algun metodo!

juanpablo
Автор

Genial - Gracias por traernos estos temas - Quería una forma de probar el de - 405 b - ya me diste la respuesta

kaosjimenez