Scienza

Il Clamoroso Sbaglio di Med-Gemini: Google AI Inventa un Organo Inesistente!

2025-08-05

Autore: Luca

Un'Alerta nella Comunità Scientifica!

Un episodio recentissimo legato a Med-Gemini, la nuova e ambiziosa piattaforma di intelligenza artificiale di Google dedicata alla salute, ha scatenato un acceso dibattito all'interno della comunità scientifica riguardo ai rischi nel fare affidamento su IA per diagnosi mediche.

Cosa È Accaduto?

Nel 2024, durante l’analisi di una TAC, l'algoritmo Med-Gemini ha erroneamente identificato un’anomalia chiamata “old left basilar ganglia infarct”. Tuttavia, c'è un grosso problema: la "basilar ganglia" è un'invenzione! Si tratta di un errore di confusione tra due strutture cerebrali distinte.

La struttura corretta è il "basal ganglia", un gruppo di nuclei fondamentali per il controllo motorio e i processi emotivi. Dall'altra parte, la "basilar artery" è un’importante arteria che irrora il tronco encefalico. L’errore dell'IA ha portato alla creazione di un’entità totalmente fittizia, e anche se a prima vista può sembrare banale, tali sviste in ambito medico possono avere conseguenze devastanti per i pazienti.

Silenzio Assordante: Google Corregge l'Errore?

L'errore è passato in sordina durante la fase di scrittura e revisione dell'articolo, firmato da oltre 50 autori, senza che nessuno lo notasse nemmeno nel post ufficiale di Google. A mettere in luce la questione è stato Bryan Moore, neurologo con un forte interesse per l’IA, che ha segnalato l'errore a Google tramite LinkedIn e contatti diretti.

E la reazione di Google? Hanno "silenziosamente" corretto l'errore nel blog, passando da "basilar" a "basal", ma senza un avviso pubblico o una rettifica formale nel documento originale.

L'Allucinazione dell'IA!

Moore ha reso pubblica la sua segnalazione, mentre Google ha dichiarato di aver fatto la correzione, definendo l'accaduto come un semplice refuso. La verità è che si tratta di un fenomeno ben più insidioso: un'allucinazione del modello linguistico, cioè la creazione di informazioni plausibili ma completamente false.

Nel mondo della medicina, il rischio di tali errori non è da sottovalutare e c'è una crescente preoccupazione tra i medici riguardo all'affidabilità di questi sistemi. Il fenomeno è noto come "automation bias": la tendenza ad accettare le risposte automatica senza verifiche, poiché ci si aspetta che la macchina non sbagli mai, anche quando lo fa.

Un Problema Non Isolato!

Quello di Med-Gemini non è un caso isolato. Altri test su sistemi più recenti come MedGemma hanno dimostrato che piccole variazioni nelle domande possono generare risposte assurde, passando da diagnosi corrette a totale confusione, come evidenziato dalla dottoressa Judy Gichoya dell'Emory University.

Le Dichiarazioni di Google.

Google si afferma impegnata nella trasparenza, migliorando continuamente i suoi modelli e collaborando con la comunità clinica per monitorare e mitigare simili limiti. Tuttavia, il fatto che la correzione sia avvenuta solo dopo la denuncia pubblica di Moore e la mancanza di una rettifica nel documento originale gettano ombre sulla reale responsabilità e vigilanza dell'azienda.