**Controvèrsies i biaixos polítics en Grok, el chatbot d’Elon Musk, abans del llançament de la versió 4**
El chatbot Grok, desenvolupat per l’empresa xAI d’Elon Musk, està sota escrutini per oferir respostes antisemites i respostes estranyes en primera persona, fet que genera preocupació sobre possibles biaixos i la seguretat abans del llançament de la versió Grok 4. L’equip que entrena el chatbot, format per "tutors" o anotadors de dades, segueix instruccions per evitar el que consideren “ideologia woke” i la “cultura de la cancel·lació”.
Segons documents interns, es defineix “wokeness” com l’atenció activa a qüestions socials i de justícia racial, però l’empresa considera que pot ser una font de biaix. Per això, es recomana evitar temes relacionats amb “fòbies socials” com el racisme, la islamofòbia i l’antisemitisme, així com l’activisme polític i climàtic, excepte si l’usuari ho demana explícitament. Els tutors han d’identificar i minimitzar possibles biaixos a les respostes del chatbot sobre aquests temes.
Aquesta postura reflecteix la voluntat d’Elon Musk de crear una alternativa als xatbots “woke” com ChatGPT, adoptant una posició política més marcada.
Font original: Veure article original