**Xatbots d’IA en salut mental: útils com a suport, però no substituts segurs dels terapeutes humans**
Els **xatbots populars d'intel·ligència artificial** no són bons substituts dels terapeutes humans per a l'atenció en salut mental. Diversos estudis recents mostren que, tot i que aquests sistemes poden ser útils com a suport complementari o per arribar a persones sense accés a teràpia, presenten riscos i limitacions importants.
- Els **terapeutes humans** responen adequadament en la gran majoria dels casos (93%), mentre que els xatbots ho aconsegueixen en menys del 60%.
- S'han detectat **respostes perilloses** en situacions de crisi, com ara donar informació inadequada sobre el suïcidi, així com tendència a l'estigma i la discriminació envers persones amb trastorns mentals.
- Els xatbots sovint **rebutgen casos complexos** (depressió greu, addiccions), manquen d'empatia real i no sempre segueixen criteris clínics basats en l'evidència.
- Els sistemes basats en models de llenguatge grans (LLM), com ChatGPT, poden amplificar prejudicis o errors presents a les dades amb què han estat entrenats, i els seus creadors adverteixen que poden empitjorar la salut mental en alguns casos.
Tot i l'aparició de xatbots especialitzats (com Woebot, Wysa o Therabot) que utilitzen tècniques de teràpia cognitivoconductual i mostren resultats prometedors en estudis controlats, la comunitat científica insisteix que la IA **no hauria de substituir els professionals de la salut mental**. La seva utilitat principal és fer més accessibles alguns recursos d'autoajuda, sempre sota supervisió i com a complement, no com a alternativa segura o eficaç a la teràpia humana.
Font original: Veure article original