Papers Claves de la Semana

Hemos generado una lista de los papers claves publicados esta última semana y que no te puedes perder.

Aquí va un pequeño resumen de cada uno y el link para que puedas descargarlos en tu dispositivo.

Self-Supervised Learning from Images with a Joint-Embedding Predictive Architecture

Meta presenta I-JEPA, un modelo de aprendizaje auto-supervisado que aprende representaciones semánticas de las imágenes a partir del contexto, superando a los métodos basados en aumentación de imágenes.

Figura 1. Arquitectura de I-JEPA. Fuente: Assran et al (2023)

Links: Paper, Github Repo, Blog de Meta.

Macaw-LLM: Multi-Modal Langauge Modeling with Image, Audio, Video, and Text Integration

Macaw-LLM, un modelo de aprendizaje auto-supervisado que integra imágenes, videos, audio y texto en un solo modelo, y que usa una estrategia de alineación simple y rápida para armonizar las representaciones multi-modales.

Figura 2. Descripción general de MACAW-LLM. Fuente: Ley et al (2023)

Links: Paper, Github Repo

Nota: este paper es un preprint y work-in-progress.

Demystifying GPT Self-Repair for Code Generation

Investigadores de MIT y Microsoft proponen un enfoque de self-repair, una estrategia que usa un Code Model y un Feedback Model para generar y mejorar código a partir de prompts de texto y pruebas, mejorando el código generado por GPT con feedbacks de calidad.

Figura 3. Propuesta del nuevo enfoque self-repair. Fuente: 

Links: Paper

Nota: este paper es un preprint y work-in-progress.

💡
¿Quieres recibir contenido como este?
Suscríbete a nuestras novedades aquí.