Xatbots d’IA i risc de desinformació: com la falta d’advertències sobre recerques retractades amenaça la fiabilitat científica i tecnològica
Alguns xatbots d’intel·ligència artificial, com ChatGPT, utilitzen informació de recerques científiques que han estat retractades o són poc fiables, sense advertir-ho als usuaris. Segons estudis recents, quan se li demana a aquests sistemes que avaluïn articles que han estat retirats per errors o frau, sovint no mencionen cap problema i, fins i tot, els valoren positivament o afirmen les seves conclusions com si fossin vàlides.
Aquesta manca de control suposa un risc perquè investigadors i públic general podrien acceptar com a certes dades falses o desacreditades. Això complica la confiança en les eines d’IA en l’àmbit científic i planteja dubtes sobre la seva utilitat per fer revisions de literatura o guiar noves recerques.
Els experts recomanen millorar els algoritmes d’aquests xatbots perquè identifiquin i adverteixin millor sobre articles retractats. També assenyalen que el problema es veu agreujat perquè les notificacions de retractació sovint no estan ben indicades en la literatura científica, cosa que dificulta la detecció automàtica.
A banda, l’ús de la IA en la redacció d’articles científics ha incrementat la producció de treballs falsos o poc rigorosos, fet que obliga les revistes a revisar els seus protocols i a buscar noves formes de garantir la fiabilitat de la recerca publicada.
Font original: Veure article original