**“Nudify”: La tecnologia d’IA que crea imatges sexuals falses i no consentides, un repte legal i ètic global**


Milions de persones estan accedint a webs d’IA que permeten “despullar” digitalment persones en fotografies, una pràctica coneguda com a **“nudify”**. Aquestes webs generen imatges explícites no consentides, sovint a partir de fotos innocents penjades a xarxes socials, i han esdevingut un negoci molt lucratiu, generant milions de dòlars i utilitzant tecnologia proporcionada per empreses dels Estats Units.

El funcionament d’aquestes eines és molt senzill: només cal pujar una foto i l’IA crea una versió falsa i sexualitzada d’aquella persona. Les víctimes principals són sovint dones i adolescents, i aquestes imatges poden acabar circulant fàcilment per grups de missatgeria i xarxes socials, provocant greus danys psicològics i socials.

Diverses empreses tecnològiques, com Meta, han començat a actuar contra aquestes pràctiques: han presentat demandes judicials contra desenvolupadors d’aquestes aplicacions, han millorat les eines per detectar i eliminar anuncis nocius, i col·laboren amb altres companyies per combatre aquesta mena d’abusos. Alguns estats dels EUA, com Minnesota, estan proposant lleis per bloquejar aquestes webs i multar les empreses responsables, amb l’objectiu de protegir les potencials víctimes fins i tot abans que les imatges es difonguin.

Aquest fenomen planteja importants reptes legals, ètics i tècnics, ja que la creació d’aquestes imatges pot ser tan perjudicial com la seva difusió, i la rapidesa amb què evoluciona la tecnologia dificulta la regulació i la protecció de les persones afectades.

Font original: Veure article original