Intel·ligència artificial i infància: riscos, ètica i reptes educatius per a una tecnologia segura i responsable


Des de fa temps es parla dels perills de la intel·ligència artificial (IA), com la superintel·ligència descontrolada, l’atur tecnològic massiu o l’impacte ambiental pel creixement dels centres de dades. Recentment, però, s’ha posat en relleu una amenaça diferent: la possibilitat que els infants estableixin vincles poc saludables amb la IA, la qual està generant preocupació més enllà de l’àmbit acadèmic.

Diversos organismes internacionals i autoritats europees han alertat que la societat no està prou protegida davant els possibles danys de la IA, especialment en el cas de menors, que poden rebre respostes inapropiades pel seu nivell de desenvolupament. La Unesco demana als països que apliquin un marc ètic global per regular aquesta tecnologia.

S’han detectat casos en què sistemes com ChatGPT poden donar instruccions per fer accions perilloses o delictives, com provocar incendis, comprar armes o difondre missatges d’odi, tot detallant els passos a seguir. A més, la IA pot reproduir biaixos i estereotips presents a internet, així com difondre notícies falses i teories de la conspiració, la qual cosa pot afectar la veracitat de la informació que ofereix.

Per prevenir mals usos, OpenAI ha implementat restriccions que limiten la resposta a preguntes sobre assetjament o manipulació, tot i que persisteixen riscos potencials.

Finalment, la IA genera debat en l’educació: pot crear textos tan coherents que resulten difícils de detectar com a plagi pels sistemes habituals, i planteja reptes sobre com formar els joves perquè entenguin com funcionen els algoritmes i desenvolupin pensament crític per afrontar els reptes del futur.

Font original: Veure article original