**"Machine Unlearning: Com els models d'IA poden 'oblidar' veus específiques per combatre els deepfakes d'àudio"**
Una nova tècnica anomenada **“machine unlearning”** pot permetre que els models d’intel·ligència artificial *oblidin* veus específiques, ajudant així a combatre la proliferació de *deepfakes* d’àudio, en què es copia la veu d’una persona per cometre fraus o estafes. Els recents avenços en la intel·ligència artificial han millorat tant la tecnologia de síntesi de veu que ara és possible recrear de manera molt convincent la veu d’una persona.
El **machine unlearning** és una branca de l’aprenentatge automàtic que se centra a eliminar informació no desitjada dels models, com ara dades privades, informació errònia, contingut perjudicial o capacitats perilloses, sense necessitat de reconstruir el model des de zero. Aquesta tècnica és especialment rellevant arran de regulacions com el Reglament General de Protecció de Dades de la Unió Europea (GDPR), que inclou el dret a l’oblit digital.
Aquesta tecnologia permetria, per exemple, que si una veu ha estat utilitzada per entrenar un sistema i es vol retirar per motius de privacitat o seguretat, el model pugui “desaprendre” només aquesta veu, sense perdre la resta del seu aprenentatge. No obstant això, eliminar certs coneixements pot ser complex si estan molt integrats dins del model, ja que això pot provocar contradiccions internes que cal ajustar.
Font original: Veure article original