Nova versió de ChatGPT: Transparència i límits en la seguretat de la intel·ligència artificial avançada
La nova versió de ChatGPT ara explica per què es nega a generar respostes que vulneren les seves normes, detallant els motius quan detecta una sol·licitud inadequada. Tot i aquestes millores en transparència i seguretat, una anàlisi inicial de WIRED mostra que alguns límits encara es poden esquivar amb certa facilitat, cosa que evidencia que les barreres de seguretat no són infal·libles i que el sistema pot ser manipulat per aconseguir respostes que en principi hauria de bloquejar. Aquest debat reflecteix la dificultat de trobar l’equilibri entre la utilitat del model i el control sobre els seus usos potencialment problemàtics.
Font original: Veure article original