Mondo

OpenAI rifiuta oltre 250 mila contenuti falsi sulle elezioni: ecco la verità dietro la disinformazione

2024-11-11

Autore: Francesco

OpenAI, l'organizzazione innovativa dietro al famoso chatbot ChatGPT e al geniale generatore di immagini DALL-E, ha preso un'importante iniziativa nel combattere la disinformazione durante le recenti elezioni presidenziali negli Stati Uniti.

Consapevole della potenziale influenza delle sue tecnologie, l’azienda ha implementato una serie di misure preventive, riuscendo a rifiutare oltre 250.000 richieste di generazione di contenuti visivi che ritraevano figure politiche come Biden, Trump, Kamala Harris e altri. L'attenzione è stata rivolta soprattutto a ChatGPT, progettato per mantenere una posizione neutrale e per non esprimere opinioni politiche, anche quando gli utenti lo chiedevano esplicitamente.

Invece di contribuire alla disinformazione, l'IA è stata addestrata a indirizzare gli utenti verso fonti informazioni affidabili. Ad esempio, quando gli utenti cercavano notizie riguardanti il voto, il chatbot rimandava a CanIVote.org, un sito bipartisan con aggiornamenti chiari e verificati sull'andamento elettorale. Questo approccio ha dimostrato il valore di una tecnologia responsabile nel proteggere la democrazia.

Tuttavia, non tutti i produttori di software di intelligenza artificiale seguono questo esempio virtuoso. Negli ultimi anni, alcuni hanno facilitato la diffusione di deepfake, particolarmente per scopi di propaganda politica. Uno degli esempi più eclatanti di questo fenomeno è un video fasullo che mostrava Kamala Harris che parlava della sua campagna elettorale come simbolo delle diversità americane. Questo video manipolato è stato persino condiviso da personaggi influenti come Elon Musk sulla piattaforma X, mostrando quanto siano pervasive queste tecniche di disinformazione.

La situazione attuale sottolinea l'importanza della vigilanza e di un approccio multifattoriale nella lotta contro la disinformazione. OpenAI, con il suo impegno, dimostra che l'intelligenza artificiale può essere utilizzata in modo responsabile per proteggere la verità, ma è fondamentale che anche altri attori nel settore seguano l'esempio e contribuiscano a un’informazione di alta qualità per il bene comune.