**DeepMind revela la paradoxa de confiança en grans models de llenguatge: tossuts i influenciables en raonament i autocorrecció**


Un estudi de DeepMind revela que els **grans models de llenguatge (LLMs)** presenten una paradoxa de confiança: poden ser alhora molt tossuts en les seves respostes i, al mateix temps, fàcilment influenciables. Aquesta dualitat té implicacions importants per al desenvolupament d’aplicacions d’intel·ligència artificial.

Els LLMs, malgrat la seva capacitat per generar textos sofisticats, encara tenen dificultats per **autocorregir-se eficaçment en tasques de raonament**. Quan intenten corregir-se sense ajuda externa, sovint no milloren i, fins i tot, poden empitjorar les seves respostes. A més, quan s’enfronten a problemes on falta informació clau, els models solen tenir problemes per **identificar quina pregunta haurien de fer per obtenir la dada necessària**. Encara que puguin resoldre problemes ben definits, sovint no saben demanar aclariments quan cal, i prefereixen donar una resposta amb confiança en lloc de reconèixer que no estan segurs.

Aquests resultats posen de manifest que, tot i els avenços, cal ser prudent amb l’ús dels LLMs en aplicacions crítiques i seguir investigant com millorar la seva capacitat per reconèixer incertesa i adquirir informació de manera activa.

Font original: Veure article original