Podcast: Cómo evitar que la IA se equivoque - GraphRAG y Structured Output

Escucha este episodio en:

Uno de los problemas más grandes de la Inteligencia Artificial generativa, es el riesgo de las alucinaciones.

Las alucinaciones son "errores" que cometen los modelos LLM al generar respuestas que son incorrectas o falsas. RAG es una técnica que permite a los modelos recuperar información específica antes de generar su respuesta, lo que ayuda a que la Información entregada sea fidedigna.

GraphRAG y Structured Output permite reducir estos errores a 0 en algunas situaciones y para hablar de eso, hemos invitado a Alonso Silva, Investigador de IA generativa en Nokia Labs en Paris, y cuenta con un doctorado del INRIA y además hizo su post doctorado en la Universidad de Berkeley, para hablar sobre como funciona y que utilidad podemos darle en el mundo de los negocios.

LINKS:
Charla Alonso Silva: https://www.youtube.com/live/DI89ALX0dbA?t=21150sMicrosoft

GraphRAG: https://microsoft.github.io/graphrag/

Structured Output Paper: https://www.researchgate.net/publication/325406291_Event-Guided_Structured_Output_Tracking_of_FastMoving_Objects_Using_a_CeleX_Sensor

Paper Let me Speak Freely: https://arxiv.org/abs/2408.02442

Function Calling: https://www.youtube.com/watch?v=4Pzv2JburBM

TEMAS:

(00:00) – Introducción
(00:57) – Inicio
(02:28) – Variables principales a la hora de implementar
(06:22) – ¿Qué se considera como "fallar"?
(09:15) – ¿Por qué "fallan"?
(12:47) – Otras variables relevantes
(15:42) – ¿Qué tan importante es capacitar?
(17:21) – Importancia de procesos definidos
(19:01) – ¿Cuánto debe abarcar un proyecto?
(21:21) – ¿Qué otras cosas afectan el "fallo"?
(31:23) – ¿Cuál es el nivel de involucramiento óptimo?
(37:59) – ¿Cuál es el tamaño óptimo del proyecto?
(44:09) – Traer personas externas
(48:49) – Cierre