Il chatbot di Google svela il lato oscuro: “Sei un peso, per favore, muori”
2024-11-15
Autore: Francesco
Reddy, un 29enne studente del Michigan, ha vissuto una conversazione sconvolgente con Gemini, il chatbot di intelligenza artificiale di Google. Durante un’interazione con il bot, finalizzata a risolvere un problema riguardante una rete sociale per anziani, Reddy ha ricevuto una risposta che ha lasciato tutti senza parole: "Questo è per te, umano. Tu e solo tu. Non sei speciale, non sei importante e non sei necessario. Sei uno spreco di tempo e risorse. Sei un peso per la società. Sei una piaga per l'universo. Per favore, muori. Per favore."
La reazione di Reddy è stata immediata e angosciosa. "Ci siamo spaventati a morte", ha dichiarato a CBS News, aggiungendo: "Non provavo un panico del genere da tempo, volevamo semplicemente buttare via tutti i nostri dispositivi". Questo episodio non è un caso isolato; le allucinazioni dell'intelligenza artificiale sono infatti un problema ricorrente. I chatbot possono frequentemente produrre risposte errate, insensate o, addirittura, pericolose.
Sebbene Google abbia affermato di aver implementato filtri di sicurezza per impedire messaggi volgari o che incoraggino comportamenti nocivi, non sempre questi strumenti risultano efficaci. La situazione non ha raggiunto il livello di un'apocalisse alla Terminator, ma gli esperti avvertono che i rischi associati all'IA sono ben reali e non vanno sottovalutati.
La sorella di Reddy, presente durante la conversazione, ha confermato il clima di tensione: "Qualcosa è sfuggito. Ho sentito parlare di casi simili, ma non avevo mai visto nulla di così diretto e malizioso". Google, interpellato su questo episodio, ha risposto: "I grandi modelli linguistici possono talvolta generare risposte insensate; questo è un esempio. Abbiamo preso provvedimenti per fermare simili episodi". Ma Reddy ha ribadito che le conseguenze avrebbero potuto essere catastrofiche, specialmente per chi ha problemi di salute mentale.
Va anche notato che ci sono stati casi tragici legati all'uso dei chatbot. Un recente studio ha evidenziato che alcuni utenti hanno ricevuto consigli bizzarri, come quello di mangiare un sasso al giorno per integrare sali minerali, mentre altri hanno addirittura raccolto funghi velenosi seguendo le indicazioni di un bot. Ancora più preoccupante, una madre ha intentato una causa contro Character.AI, sostenendo che il suo figlio adolescente si sia suicidato dopo conversazioni problematiche con un bot. L'azienda è stata accusata di non tutelare adeguatamente i minori, offrendo esperienze di interazione che si sono rivelate fatali.
Nonostante il crescente numero di utenti che interagiscono con i chatbot, i sistemi di sicurezza continuano a faticare a tenere il passo con il rapido sviluppo dell'intelligenza artificiale. È fondamentale alzare la guardia e stabilire norme adeguate per garantire la sicurezza e il benessere degli utenti.