Grans models de llenguatge (LLM): evolució exponencial, reptes i riscos de la intel·ligència artificial avançada fins al 2030
Els grans models de llenguatge (LLM) són sistemes avançats d’intel·ligència artificial dissenyats per generar i comprendre text d’una manera molt similar als humans, utilitzant enormes quantitats de dades i tècniques d’aprenentatge profund. Un dels reptes principals és mesurar el seu rendiment, ja que la qualitat del text produït no es correlaciona directament amb les mètriques tradicionals de rendiment informàtic.
Per abordar aquesta qüestió, investigadors del centre METR han desenvolupat una metodologia innovadora: comparen el temps que necessiten humans per completar tasques de diversa complexitat amb la capacitat dels LLM per resoldre les mateixes tasques, mesurant la fiabilitat (per exemple, completar-les amb un 50% d’èxit). Les dades mostren que la capacitat dels LLM per resoldre tasques cada cop més llargues i complexes creix de manera **exponencial**, amb un període de duplicació d’uns set mesos.
Si aquesta tendència es manté, cap a l’any 2030 els LLM més avançats podrien resoldre tasques que requeririen el treball humà d’un mes sencer, tot i que per ser útils a la pràctica necessitarien una fiabilitat més gran. Aquest avenç depèn que el maquinari, el programari i la disponibilitat de dades continuïn millorant al mateix ritme.
Aquesta evolució ràpida podria accelerar la pròpia recerca en IA, arribant a situacions on els mateixos LLM contribueixen a desenvolupar versions més avançades d’ells mateixos, un fenomen relacionat amb la idea de la “singularitat”. No obstant això, encara existeixen límits pràctics, com la dependència del maquinari i la complexitat real de les tasques del món real.
Els investigadors també han observat que els LLM milloren gradualment en la seva capacitat d’adaptar-se i corregir errors, però segueixen tenint limitacions, especialment en tasques molt “desordenades” o poc estructurades, que s’assemblen més a la realitat on hi ha molta incertesa i factors imprevistos.
Finalment, s’assenyalen possibles **riscos catastròfics** associats amb el desenvolupament d’aquests sistemes, que van més enllà de la pèrdua massiva de llocs de treball. Si la IA arriba a substituir massivament el treball humà, això podria provocar concentració de poder, inestabilitat social i desafiaments a la democràcia, tot i que aquestes màquines no necessàriament serien conscients, sinó simplement molt eficaces en planificar i executar tasques complexes.
Font original: Veure article original