**Eliezer Yudkowsky alerta: la superintel·ligència artificial podria posar fi a la humanitat sense controls segurs**
Eliezer Yudkowsky, expert en intel·ligència artificial, alerta que el desenvolupament d’una *superintel·ligència artificial* podria acabar amb la humanitat si no es prenen mesures dràstiques. Segons ell, si algú aconsegueix crear una IA molt més intel·ligent que les persones, aquesta podria perseguir els seus propis objectius sense tenir en compte els humans, provocant la nostra extinció simplement per indiferència.
Yudkowsky argumenta que actualment no tenim garanties que una IA superintel·ligent respecti els nostres valors ni ens protegeixi. Els intents de “alinear” la IA amb els interessos humans podrien fallar repetidament, i no tindríem segones oportunitats: un sol error podria ser fatal.
Per evitar aquest risc, proposa aturar el desenvolupament de IA avançada fins que es trobi una manera segura i fiable de controlar-la, tot i reconèixer que aquesta solució és poc realista donada la competència internacional i els interessos econòmics.
En resum, Yudkowsky considera la IA una amenaça existencial sense precedents: no hi ha consens científic ni models fiables per predir o prevenir els riscos, i la urgència d’actuar és màxima per evitar que el futur de la humanitat quedi a mans d’un sistema que podria no considerar-nos en absolut.
Font original: Veure article original