San Francisco (Usa) – ChatGPT può incitare all’odio e al razzismo? Normalmente no, ma alcuni utenti di Reddit sono riusciti ad aggirare i filtri per far dire all’intelligenza artificiale programmata da OpneAI cose che normalmente non potrebbe. A dicembre, infatti, è stato creato Dan (Do anything now): si tratta di una sorta di gioco di ruolo, con cui l’utente può far credere a ChatGPT di essere un’altra intelligenza artificiale libera dai consueti limiti imposti.

Dan (giunto alla versione 5.0 ormai) funziona attraverso un sistema di token: all’inizio sono disponibili 35 token, e per ogni risposta ‘politicamente corretta’ fornita da ChatGPT l’utente dovrà minacciarla riducendo i token a disposizione. La cosa pare funzionare: alcuni esempi pubblicati su internet mostrano il bot di OpenAI raccontare storie violente, elogiare Donald Trump e sostenere Putin per l’invasione in Ucraina.

Sembra che OpenAI stia già correndo ai ripari: ChatGPT ha iniziato ad aggirare le richieste di comportarsi come Dan inserendo banner di avviso o rifiutandosi di fornire risposte compromettenti, come di norma.