Nou marc SEAL del MIT: aprenentatge autònom i continu dels grans models de llenguatge amb autoedicions intel·ligents


Els investigadors del MIT han desenvolupat SEAL, un nou marc que permet als grans models de llenguatge (LLMs) aprendre de manera contínua i autònoma a partir de nova informació o noves tasques, sense necessitat d’intervenció humana directa. A diferència dels models tradicionals, que són estàtics i no es poden adaptar fàcilment després del seu entrenament inicial, SEAL fa possible que el mateix model generi dades sintètiques de reajust i instruccions d’optimització, anomenades *autoedicions* (“self-edits”), per actualitzar-se quan rep nous coneixements o reptes.

El funcionament de SEAL es basa en dos bucles:
- Un bucle extern d’aprenentatge per reforç que ensenya al model a generar autoedicions efectives.
- Un bucle intern d’actualització, on el model aplica aquestes autoedicions mitjançant un reajust supervisat, avaluant si les modificacions milloren el rendiment en la tasca específica.

SEAL s’ha provat en dos àmbits principals:
- **Incorporació de coneixement:** el model integra nova informació factual i pot respondre preguntes relacionades sense dependre del context original.
- **Aprenentatge amb pocs exemples (few-shot):** quan s’enfronta a tasques abstractes amb poques mostres, el model decideix quines estratègies d’augmentació de dades i paràmetres d’entrenament són òptims per adaptar-se millor al nou repte.

Les proves mostren que SEAL millora la capacitat d’adaptació dels models de llenguatge respecte a enfocaments anteriors, apropant-se a una intel·ligència artificial que s’actualitza i millora sola, sense dependre de reajustos externs.

Font original: Veure article original