Probamos Llama-3 de Meta y es el nuevo 👑 open source!

preview_player
Показать описание
Hablamos de Llama3 de Meta. Releases 8B & 70B. Performance esta al nivel de GPT4 en algunos casos, mejor que Anthropic Claude 3 Sonnet en otros. Lo probamos en vivo, mostramos notebooks para hacerle ajuste fino, RAG, y mas. Finalmente, vemos la geopolitica de AI y que nos viene en el futuro. Abrazo grande!
#llama3 #meta #ai

📖 Capitulos:
0:00 - Introducing Meta Llama 3: The most capable openly available LLM to date
8:00 - Mark Zuckerberg & especificaciones técnicas
20:00 - Demo en Meta.AI & HuggingFace Chat
30:00 - Notebooks para fine-tuning y para RAG
40:00 - AI data centres de 1 GW y geo-politica para LLM training

Links mencionados durante el video:

🧉 No te olvides de suscribirte al canal para recibir notificaciones de nuevos videos 🧉
Рекомендации по теме
Комментарии
Автор

Tremendo lo de la energía ... y acá en Argentina este loco desfinanció el proyecto CAREM, que era para desarrollar nuestros propios reactores nucleares, siempre a contramano este país. Excelente vídeo como siempre.

Maisonier
Автор

muchas gracias por el video! Saludos desde Jujuy .

manuonda
Автор

Que crack. El contenido de tus videos son de gran nivel. Un abrazo desde BsAs.

gabrielfernandorey
Автор

Gracias hermano. Siempre espero tus videos. 💪🏼

patojp
Автор

Como siempre, excelentes los videos. Gracias por compartir 👍

hozcarhz
Автор

Genial como siempre... quisiera hacer un mini micro aporte a la producción... jajaja más que nada porque es el único canal de los que sigo en youtube que le pasa esto... para los que oímos desde la pc, con parlantes con subwoofer hay unas frecuencias por debajo de los 100 hz que hacen que se mueva toda la casa... esas frecuencias no aportan a la voz y se podrían sacar con un EQ o bajarlas un poco. Es un mini detalle, se ve que ese micrófono es muy pro. Saludos!

Muferchus
Автор

Se extrañaban tus videos Nico, abrazo desde Córdoba

lrostagno
Автор

Muy buen video, se puede hacer uso comercial del modelo sin pagar a meta?, solo mencionar q tu producto esta basado en llama 3?

meme
Автор

Buenas tardes a todos.
Empiezo desde el principio.
Que ganas de ver un nuevo vídeo de Nicolás.

agnosticoparatodo
Автор

Que emoción!
La verdad no tenia muchas expectativas de llama 3, pero wow, fue justamente llama 3 el modelo abierto que superó a gpt 4 (la version original)
¡¡Y con solo 70B!!

Estoy ansioso por ver el paper y la evaluación del de 400B

Gracias niko, gran aporte como siempre
Aunque no hayas sido el primer video, si es el unico en español que no esta lleno de basura sensacionalista

Se que no es tu estilo, ni el objetivo de tu canal, pero me encantaria que hicieras un video, o un blog listando papers acerca de la evolucion de los transformers, como pequeñas adiciones fueron tumbando las limitaciones iniciales como las ventanas de contexto limitadas o el largo tiempo de entrenamiento, si pudieras hacer una lista de esos pequeños avances como flash attention, grouped query, MoEs, etc. Seria un tema con mucha carne, y que la verdad me ahorraria decenas de horas de lectura xd saludos

estebanruiz
Автор

Puede ser que mientras más grande sea la ventana de contexto del llm más conviene rag en vez de fine tuning?

pabloartero
Автор

excelente ❤, mil gracias por explicarnos 🎉, esta guapísimo el pinche llama

gammingtoch
Автор

Buenas, muy interesante el vídeo. Te consulto, cual sería el modelo y la manera correcta de entrenarlo para predicción de series temporales, como podría ser la temperatura o variables atmosféricas, dado que no veo la manera de ingresarle gráficos en vez de texto, y el pre entrenamiento es con texto por lo que entiendo no me sirve de nada...Aguardo tu respuesta a ver si me podes orientar. Gracias!

juancecconi
Автор

Buen vídeo, las empresas estan moviendo ficha, yo creo que en un futuro proximo esas pruebas que se hace con la IA para comparala con el conocimiento y razonamiento humano no van a tener valides, ya que la IA puntuará por encima de 100, hay que ir desarrollando otro tipo de pruebas. Esto es asi porque esas empresas no van a destinar esa cantidad de dinero, data y energía si no creen que es posible desarrollar algo muy superior a los modelos que se tienen hasta ahora.

jesus
Автор

Las comparativas de tamaño del modelo me da absolutamente igual. Lo importante es que parte utilizan cuando se hacen las consultas, es como el bandwith al empezar un contrato las empresas te dan mas y luego lo van reduciendo.

content
Автор

Gracias por compartir, estuv ebuscando pero me ayudaria una respuesta RTX 4060 8GB o RTX 3060 8GB para LLM training cual seria mejor?
porfa apoyo

mymindmysoul
Автор

El modelo que mencionas de 400B será como sacarse la churra y miccionarse en el resto de modelos.
Aunque como no lo mueva la futura RTX 5090.... O puedo estar equivocado porque soy muy nuevo en esto.

agnosticoparatodo
Автор

Habrías sido el primero en publicar un video de Llama 3 😔 bueno a esperar aunque otros canales ya lo están publicando

rogersc
Автор

La ventana de contexto sigue siendo pequeña

inteligenciafutura
Автор

En donde quedo el metaverso de Mark?!!...Cambiamos a la AI ahora.

pato