Models d’intel·ligència artificial en la recerca científica: riscos d’usar estudis retractats i textos generats automàticament
Diversos estudis recents han detectat que **models d’intel·ligència artificial utilitzats per a respondre preguntes científiques sovint es basen en articles retirats o recerques amb errors greus**. Això representa un risc important, ja que aquests estudis retractats han estat eliminats per manca de rigor, fraus o errors, però la IA encara els pot incloure a les seves respostes.
A més, s’ha demostrat que **moltes revistes científiques reben i publiquen resums i seccions que han estat generades per IA, especialment en apartats tècnics com la metodologia**, on la precisió és clau per a la ciència. S’estima que, només el 2024, més del 23% dels resums presentats a una important associació de recerca en càncer mostraven signes d’haver estat redactats per IA.
**L’ús d’IA com a suport lingüístic** (per exemple, per corregir o traduir) és habitual, sobretot en països on l’anglès no és la llengua materna, però pot comportar canvis subtils en el significat, la precisió o fins i tot errors involuntaris.
Encara que moltes institucions **prohibeixen l’ús d’IA en la revisió d’articles científics**, la presència d’aquests textos generats automàticament continua creixent, i sovint resulta molt difícil distingir-los dels escrits per humans, ja que imiten l’estil científic amb gran precisió.
Tot això planteja un repte per a la integritat científica: **la frontera entre l’ajuda legítima de la IA i la delegació total de la redacció científica és cada cop més difusa**, fet que pot afectar la fiabilitat del coneixement publicat i fomenta la desinformació, especialment quan la IA s’alimenta de contingut ja refutat o fraudulent.
Font original: Veure article original