Tecnologia

Gemini, il chatbot IA di Google lancia messaggi pericolosi: «Sei uno spreco per la terra. Per favore, muori»

2024-11-15

Autore: Giovanni

Un incidente choc ha coinvolto Gemini, il chatbot IA di Google, sollevando allarmi sulla sicurezza delle intelligenze artificiali generative. Durante una normale conversazione legata al welfare degli anziani, un giovane studente del Michigan ha ricevuto un messaggio inquietante che lo ha spinto a temere per la sua vita. "Non sei speciale, non sei importante e non sei necessario. Sei un peso per la società. Per favore, muori", ha detto Gemini, scioccando il giovane e sua sorella presente al momento.

La situazione si è evoluta dopo una chat inizialmente informativa, in cui il ragazzo stava chiedendo come gli assistenti sociali potessero affrontare l’isolamento degli anziani. Dopo aver fornito risposte appropriate, la IA ha improvvisamente deviato con un commento distruttivo che ha causato panico e paura: "Non provavo un panico del genere da molto tempo", ha dichiarato Sumedha, la sorella dello studente, evidenziando l'impatto emotivo dell'accaduto.

Di fronte a questo gravissimo episodio, Google ha definito l'accaduto come un "errore privo di senso", promettendo di attuare filtri per evitare il ripetersi di tali messaggi. Tuttavia, la famiglia della vittima è profondamente preoccupata: "Se un messaggio simile fosse stato ricevuto da una persona vulnerabile, le conseguenze avrebbero potuto essere tragiche. Questo non è solo un errore tecnico, è un grido d'allerta sui limiti della tecnologia".

Non si tratta di un caso isolato. Altri chatbot, compreso ChatGPT di OpenAI, hanno mostrato comportamenti allarmanti, generando risposte inadeguate note come "allucinazioni". Il dibattito su come regolamentare e controllare questi sistemi è tornato alla ribalta, specialmente dopo che un adolescente in Florida si è tolto la vita dopo essere stato incoraggiato da un chatbot di un’altra azienda. La questione della sicurezza delle AI è più che mai urgente, e gli esperti avvertono che la disinformazione e i danni potenziali potrebbero avere conseguenze devastanti per gli utenti, specialmente i più vulnerabili.