Podcast: Cómo ajustar tu LLM para mejorar su rendimiento 🚀

Las alucinaciones y la falta de conocimiento actualizado son algunas de las principales falencias de los modelos de lenguaje como ChatGPT, Gemini u otros.

Existen muchas técnicas que permiten disminuir los efectos de estas falencias y/o darle nuevas funcionalidades a los modelos de lenguaje para así adaptarlo más a tu caso de uso.

En este episodio únete a Eduardo Fica y Sebastián Cisterna para aprender sobre los pros y contras de técnicas cómo el RAG (retrieval-augmented generation), function calling, fine-tuning y prompt engineering.



Links relevantes:
Qué es una API: https://www.youtube.com/watch?v=0TEJgVJoO34
ChatGPT para principiantes https://evoacademy.cl/libro
Como entrenar tu LLM https://youtu.be/4Pzv2JburBM

Escucha este episodio en:

Temas

  • 00:00 - Inicio
  • 01:12 - Cómo ajustar tu LLM
  • 01:35 - Ingeniería de prompts
  • 06:35 - Libro ChatGPT para principiantes
  • 06:51 - Cómo agregar información actualizada o personalizada
  • 07:59 - RAG
  • 13:02 - Llamadas de función
  • 22:06 - ¿Cuántas funciones puede llamar un modelo?
  • 22:29 - Ajuste fino (Fine-Tuning)
  • 28:06 - ¿Cuántas herramientas puedo usar en un modelo?
  • 31:11 - Cierre

¿Qué IA está pasando? Es el podcast de EvoAcademy sobre Tecnología e Inteligencia Artificial, escúchalo todas las semanas en tu plataforma favorita.