Restriccions d’ús de la intel·ligència artificial Claude d’Anthropic en agències de seguretat nord-americanes: impactes i tensions en tecnologia i vigilància nacional
Les polítiques d'ús de la intel·ligència artificial **Claude** d’Anthropic impedeixen que contractistes del **FBI** i del **Secret Service** utilitzin aquest chatbot per dur a terme tasques relacionades amb la vigilància o la seguretat nacional. Aquestes restriccions han generat frustració entre responsables del govern dels Estats Units, especialment perquè Anthropic sí que permet l’ús de Claude en treballs d’intel·ligència classificats, però no en operacions de vigilància interna com les que duen a terme el FBI o ICE. Aquesta diferència en les condicions d’accés a la tecnologia està creant tensions amb les agències de seguretat, ja que limiten el potencial d’ús d’aquestes eines avançades en la lluita contra el crim i la protecció nacional.
Font original: Veure article original