Fracàs de l’algoritme d’IA a Amsterdam: límits i biaixos en l’avaluació justa d’ajudes socials malgrat l’ètica i la tecnologia avançada


Amsterdam va intentar utilitzar algoritmes per avaluar de manera justa les sol·licituds d’ajuda social, seguint totes les recomanacions per fer una intel·ligència artificial (IA) ètica i responsable, però no va aconseguir eliminar els biaixos del sistema.

Tot i la inversió de temps i recursos i la voluntat de fer-ho bé, quan l’algoritme es va aplicar al món real, persistien discriminacions i resultats esbiaixats. Aquest cas ha posat en evidència que, fins i tot amb les millors pràctiques, és molt difícil aconseguir que una IA sigui completament justa en àmbits tan sensibles com el benestar social.

L’experiència d’Amsterdam fa plantejar dues preguntes clau: per què va fallar el sistema tot i els esforços, i si realment és possible crear algoritmes imparcials. Diversos experts, com Amanda Silverman, Eileen Guo i Gabriel Geiger, analitzen aquests reptes i debaten si algun dia es podrà construir una IA realment justa per a l’avaluació de sol·licituds socials.

En resum: malgrat els avenços tècnics i ètics, la realitat mostra que la IA aplicada a polítiques socials encara té molts límits pel que fa a eliminar biaixos i garantir la justícia per a tothom.

Font original: Veure article original