Cómo evitar que la IA se equivoque - GraphRAG y Structured Output

preview_player
Показать описание
Uno de los problemas más grandes de la Inteligencia Artificial generativa, es el riesgo de las alucinaciones.

Las alucinaciones son "errores" que cometen los modelos LLM al generar respuestas que son incorrectas o falsas. RAG es una técnica que permite a los modelos recuperar información específica antes de generar su respuesta, lo que ayuda a que la Información entregada sea fidedigna.

GraphRAG y Structured Output permite reducir estos errores a 0 en algunas situaciones y para hablar de eso, hemos invitado a Alonso Silva, Investigador de IA generativa en Nokia Labs en Paris, y cuenta con un doctorado del INRIA y además hizo su post doctorado en la Universidad de Berkeley, para hablar sobre como funciona y que utilidad podemos darle en el mundo de los negocios.

LINKS:

---

Más sobre nuestro podcast en:
Síguenos en nuestras redes:

Somos EvoAcademy, encuéntranos también como @evoacdm en redes sociales o Evo Academy
---
00:00 – Introducción
00:41 – Inicio
04:41 – ¿Por qué usar Graphos?
06:37 – Structured Output
09:17 – El costo de restringir Output
11:23 – Límites de Structured Output
16:38 – ¿Por qué usar Structured Output?
23:41 – Miedo a compartir datos
28:56 – El estudio de los "pesos"
31:36 – Últimas preguntas
35:05 – Cierre
Рекомендации по теме
Комментарии
Автор

Muy buen canal ! Muy recomendable!!! Me llamo la atención su peculiar estilo personal de Evo, es muy parecido a Chaparro Chuacheneger

pedroandresgonzales
Автор

Bus tremendo! Sacan cursos de esto para gente de a pie? Veo que anunciastéis para empresas, pero yo quiero mi RAG local tanto para estudiar como para programar.

Y si es cierto, le meti la comstitucion de mi pais y le pregunte por los articulos y no me contesto bien xD

javaboy