E-Mail: [email protected]
- Nel 51% dei casi, l'ai genera risposte con problemi significativi.
- Il 19% delle risposte contiene vistosi errori di fatto.
- Gemini sbaglia nel 72% dei casi, media degli LLM al 45%.
## Allarme Accuratezza: i Riassunti AI Sotto Accusa
Un recente studio condotto dalla BBC ha gettato un’ombra inquietante sull’affidabilità dei riassunti di notizie generati dall’intelligenza artificiale. I risultati, pubblicati il 12 febbraio 2025, rivelano che gli assistenti AI più diffusi, tra cui ChatGPT di OpenAI, Copilot di Microsoft, Gemini di Google e Perplexity AI, presentano lacune significative nell’accuratezza e nella capacità di distinguere tra fatti e opinioni.
La ricerca ha analizzato la capacità di questi chatbot di sintetizzare correttamente i contenuti giornalistici del sito web della BBC. L’esito è stato allarmante: nel 51% dei casi, le risposte generate dall’AI presentavano “problemi significativi di qualche tipo”. Ancora più preoccupante è la scoperta che il 19% delle risposte conteneva vistosi errori di fatto, come affermazioni scorrette, dati numerici imprecisi e date errate.

## Distorsioni e Inesattezze: un Cocktail Confuso
La ricerca ha evidenziato una serie di problematiche nella gestione delle informazioni da parte degli assistenti AI. Oltre alle inesattezze fattuali, è stata riscontrata una difficoltà nel distinguere tra opinioni e dati concreti, una propensione a interpretare in modo soggettivo i contenuti e l’omissione di elementi contestuali cruciali per una corretta comprensione delle notizie.
Un esempio eclatante è Gemini, che ha erroneamente affermato che il NHS (National Health Service) del Regno Unito non raccomanda la sigaretta elettronica come aiuto per smettere di fumare, contrariamente alle raccomandazioni ufficiali. Per fare un esempio, ChatGPT e Copilot hanno comunicato in modo inesatto che Rishi Sunak e Nicola Sturgeon detenessero ancora le loro cariche, nonostante si fossero dimessi precedentemente da quegli incarichi.
Questi errori non sono isolati. La propensione degli assistenti AI a fondere senza discernimento fatti, opinioni e materiale d’archivio produce un “cocktail confuso” di informazioni che si discosta notevolmente dalla limpidezza e dalla precisione attese dai lettori.
## Responsabilità e Controllo: un Appello alle Aziende Tecnologiche
Di fronte a questi risultati, Deborah Turness, CEO di BBC News, ha lanciato un appello alle aziende tecnologiche, invitandole ad affrontare i problemi di inesattezza e distorsione. Ha sottolineato il rischio concreto che informazioni distorte dall’intelligenza artificiale possano causare danni significativi nel mondo reale, minando ulteriormente la già fragile fiducia del pubblico nei fatti e nelle informazioni verificate.
Pete Archer, direttore del programma per l’intelligenza artificiale generativa della BBC, ha sottolineato l’importanza del controllo editoriale sull’utilizzo dei contenuti giornalistici da parte delle aziende che si occupano di intelligenza artificiale. Ha affermato che “gli editori dovrebbero avere il controllo sul modo in cui vengono utilizzati i loro contenuti e le aziende di intelligenza artificiale dovrebbero mostrare come gli assistenti elaborano le notizie insieme alla portata degli errori e delle imprecisioni che producono”.
Per la durata delle prove, la BBC ha dato accesso in via del tutto eccezionale ai propri contenuti web ai chatbot basati su IA, nel dicembre 2024, nonostante di norma blocchi l’accesso a tali sistemi. Lo scopo principale era quello di valutare a fondo le capacità e i limiti degli assistenti IA nel gestire informazioni giornalistiche di alta qualità.
## Inquinamento Sociale: Urge una Riflessione
I dati emersi dallo studio della BBC sono inequivocabili: gli assistenti AI, allo stato attuale, non sono in grado di fornire riassunti di notizie accurati e affidabili. Nel caso specifico di Gemini, gli errori raggiungono il 72%, mentre la media complessiva degli LLM si attesta al 45%.
La domanda che sorge spontanea è: chi si affida a questi strumenti per informarsi è consapevole dei rischi che corre? La diffusione di informazioni inesatte e distorte rappresenta una forma di “inquinamento sociale” di cui le aziende tecnologiche dovrebbero farsi carico.
Uno studio condotto da 22 broadcaster pubblici, tra cui la RAI, conferma la gravità della situazione. È necessario un intervento urgente per garantire che l’intelligenza artificiale sia utilizzata in modo responsabile e che non contribuisca a minare la fiducia del pubblico nei fatti e nelle informazioni verificate.
## Navigare nel Mare dell’Informazione: Consapevolezza e Verifica
In un’era dominata dall’informazione digitale, l’automazione promette di semplificare l’accesso alle notizie. Tuttavia, come dimostra questo studio, l’automazione senza un adeguato controllo di qualità può portare a risultati disastrosi. Una nozione base di automazione ci insegna che l’efficienza non deve mai compromettere l’accuratezza.
A un livello più avanzato, la trasformazione digitale richiede una riflessione critica sull’integrazione dell’AI nei processi informativi. Non basta affidarsi ciecamente agli algoritmi; è fondamentale sviluppare sistemi di verifica e validazione che garantiscano l’affidabilità delle informazioni.
In definitiva, la responsabilità di informarsi correttamente ricade su ciascuno di noi. Dobbiamo essere consapevoli dei limiti degli strumenti che utilizziamo e sviluppare un approccio critico alla lettura delle notizie. Verificare le fonti, confrontare le informazioni e non dare nulla per scontato: queste sono le armi più efficaci per navigare nel mare dell’informazione e proteggerci dalla disinformazione.