E-Mail: [email protected]
- Il Guardian ha evidenziato risposte AI errate in ambito sanitario.
- Google ha sconsigliato cibi grassi a pazienti con tumore al pancreas.
- Rimossi risultati per query come "esami del sangue del fegato".
- Manca il contesto: nazionalità, sesso, etnia, età del paziente.
- Le risposte AI cambiano nel tempo minando la fiducia.
## Google AI Overviews: Un rischio per la salute pubblica?
Un’inchiesta del Guardian ha sollevato serie preoccupazioni riguardo all’accuratezza delle risposte fornite da Google AI Overviews in ambito sanitario. Queste sintesi, generate dall’intelligenza artificiale, mirano a fornire informazioni essenziali su un determinato argomento, ma in alcuni casi hanno diffuso dati errati e potenzialmente dannosi per la salute degli utenti.
Tra gli esempi più allarmanti, Google ha sconsigliato ai pazienti affetti da tumore al pancreas di consumare cibi ad alto contenuto di grassi, un consiglio diametralmente opposto a quanto raccomandato dagli esperti, che potrebbe addirittura aumentare il rischio di mortalità. In un altro caso, l’AI ha fornito informazioni fuorvianti sui test di funzionalità epatica, inducendo persone con gravi patologie a credere di essere in buona salute.

## Rimozione delle AI Overviews per alcune query mediche
A seguito dell’inchiesta del Guardian, Google ha rimosso le AI Overviews per alcune query mediche specifiche, come “qual è l’intervallo normale per gli esami del sangue del fegato” e “qual è l’intervallo normale per i test di funzionalità epatica”. Tuttavia, è stato scoperto che varianti di queste domande, come “lft reference range” o “lft test reference range”, potevano ancora generare sintesi AI.
Questa rimozione parziale solleva interrogativi sull’efficacia della strategia di Google. Come ha sottolineato Vanessa Hebditch del British Liver Trust, concentrarsi sulla rimozione di singole query non affronta il problema più ampio dell’inaffidabilità delle AI Overviews in ambito sanitario.
## Il problema della disinformazione e della mancanza di contesto
Uno dei principali problemi evidenziati dall’inchiesta è la mancanza di contesto nelle risposte generate dall’AI. Ad esempio, le informazioni sui test di funzionalità epatica non tenevano conto di fattori cruciali come nazionalità, sesso, etnia ed età del paziente. Questa mancanza di personalizzazione può portare a interpretazioni errate dei risultati e a decisioni mediche inappropriate.
Inoltre, l’inchiesta ha rivelato che le AI Overviews possono fornire risposte diverse alla stessa domanda in momenti diversi, minando la fiducia degli utenti e aumentando il rischio di disinformazione.
## *AI e Salute: Un Equilibrio Delicato La vicenda delle AI Overviews di Google mette in luce la complessità dell’integrazione dell’intelligenza artificiale in un settore delicato come quello sanitario. Se da un lato l’AI ha il potenziale per fornire informazioni rapide e accessibili, dall’altro la sua inaffidabilità e la mancanza di contesto possono rappresentare un rischio concreto per la salute pubblica.
È fondamentale che le aziende che sviluppano sistemi di AI si assumano la responsabilità di garantire l’accuratezza e l’affidabilità delle informazioni fornite, soprattutto in ambiti sensibili come la salute. La supervisione umana e la collaborazione con esperti del settore sono essenziali per evitare la diffusione di informazioni errate e potenzialmente dannose.
**
Un concetto base di automazione applicabile a questo caso è la validazione dei dati. In ambito sanitario, l’automazione della validazione dei dati provenienti da fonti diverse è cruciale per garantire l’accuratezza delle informazioni presentate agli utenti. Questo processo può includere la verifica incrociata con database medici affidabili, la valutazione della credibilità delle fonti e l’identificazione di potenziali incongruenze.
Un concetto avanzato è l’implementazione di sistemi di AI “spiegabili” (XAI). Questi sistemi non solo forniscono risposte, ma anche le motivazioni alla base delle loro conclusioni, consentendo agli utenti di valutare la validità delle informazioni e di identificare eventuali errori o bias. L’XAI può contribuire a costruire la fiducia degli utenti nei sistemi di AI e a promuovere un utilizzo più consapevole e responsabile di queste tecnologie.
Riflettiamo: l’automazione e la trasformazione digitale offrono indubbi vantaggi, ma richiedono un approccio cauto e responsabile, soprattutto quando si tratta di salute. La tecnologia deve essere al servizio dell’uomo, non il contrario.








