E-Mail: [email protected]
- 882 dispositivi medici basati sull'AI approvati, 671 in radiologia.
- Donne ispaniche: più falsi positivi per vaginosi batterica.
- Modelli AI predicono etnia da radiografie meglio dei radiologi.
Un’arma a doppio taglio?
L’integrazione dell’intelligenza artificiale (AI) nel settore sanitario promette rivoluzioni diagnostiche, ma recenti studi sollevano preoccupanti interrogativi sulla sua equità. Algoritmi di machine learning, progettati per assistere nella diagnosi di patologie, mostrano una preoccupante tendenza a generare bias diagnostici nei confronti di specifici gruppi etnici e di genere. La questione è tutt’altro che secondaria, considerando il numero crescente di dispositivi medici basati sull’AI approvati per l’uso clinico: ben 882 ad oggi, con 671 dedicati alla radiologia (dati aggiornati a Maggio 2024).
Un esempio lampante emerge da una ricerca dell’Università della Florida, pubblicata su Nature Digital Medicine. Lo studio ha rivelato che modelli di machine learning utilizzati per diagnosticare la vaginosi batterica (BV), un’infezione comune nelle donne, presentano significative discrepanze diagnostiche tra diversi gruppi etnici. In particolare, le donne ispaniche hanno ricevuto il maggior numero di falsi positivi, mentre le donne asiatiche il maggior numero di falsi negativi. I modelli hanno mostrato le performance migliori per le donne bianche e le peggiori per le donne asiatiche, evidenziando una chiara disuguaglianza nel trattamento dei gruppi etnici.
Ma non è tutto. Ricercatori del MIT hanno scoperto che i modelli AI più accurati nel predire dati demografici a partire da immagini mediche (come radiografie del torace) sono anche quelli che presentano i maggiori “fairness gaps“, ovvero discrepanze nella capacità di diagnosticare accuratamente immagini di persone di diverse etnie o genere. Questo suggerisce che i modelli potrebbero utilizzare “scorciatoie demografiche” durante le valutazioni diagnostiche, portando a risultati errati per donne, persone di colore e altri gruppi. Nel 2022, gli stessi ricercatori del MIT avevano già dimostrato che i modelli AI possono predire con precisione la razza di un paziente dalle radiografie del torace, un’abilità che sfugge anche ai radiologi più esperti.
La questione è complessa e richiede un approccio multifattoriale. Da un lato, è fondamentale valutare attentamente i modelli AI su dati specifici della popolazione locale prima di implementarne l’uso clinico. Dall’altro, è necessario sviluppare metodi per “debiasing” dei modelli, ovvero per ridurre i bias intrinsechi che ne compromettono l’equità. Tuttavia, come evidenziato dallo studio del MIT, le strategie di debiasing possono non essere efficaci quando i modelli vengono applicati a pazienti provenienti da contesti diversi da quelli su cui sono stati addestrati.

Questo solleva interrogativi sull’applicabilità universale dei modelli AI e sulla necessità di un continuo monitoraggio e adattamento.
Dispositivi medici e bias etnici: un problema urgente
Un rapporto indipendente ha evidenziato l’urgente necessità di affrontare l’impatto dei bias etnici e di altro tipo nell’uso di dispositivi medici. Il rapporto ha rilevato che i pulsiossimetri, dispositivi utilizzati per misurare i livelli di ossigeno nel sangue, possono essere meno accurati per le persone con tonalità della pelle più scura, rendendo più difficile individuare pericolose diminuzioni dei livelli di ossigeno. Durante la pandemia di Covid-19, i pulsiossimetri sono stati ampiamente utilizzati per valutare la necessità di ricovero ospedaliero e trattamento. Tuttavia, il rapporto evidenzia che questi dispositivi, spesso testati e calibrati su partecipanti con tonalità della pelle più chiara, possono sovrastimare i livelli di ossigeno nel sangue per le persone con tonalità della pelle più scura, portando potenzialmente a esiti sanitari peggiori.
Il rapporto ha inoltre avvertito che i dispositivi che utilizzano l’intelligenza artificiale (AI) potrebbero sottostimare il cancro della pelle nelle persone con la pelle più scura. Questo problema deriva dal fatto che i sistemi di AI vengono spesso “addestrati” prevalentemente su immagini di tonalità della pelle più chiare. Allo stesso modo, l’uso di sistemi AI per la lettura di radiografie del torace, addestrati principalmente su immagini di uomini (che tendono ad avere capacità polmonari maggiori), potrebbe portare alla sottodiagnosi di malattie cardiache nelle donne, aggravando un problema già esistente.
Le implicazioni di questi bias sono profonde e richiedono un’azione immediata. Come ha sottolineato la Prof. Dame Margaret Whitehead, presidente della revisione, è necessario implementare con urgenza un’azione a livello di sistema. L’avanzamento dell’AI nei dispositivi medici potrebbe portare grandi benefici, ma potrebbe anche causare danni attraverso bias intrinseci contro determinati gruppi della popolazione, in particolare donne, persone provenienti da minoranze etniche e gruppi socio-economici svantaggiati.
- L'AI in medicina ha un potenziale enorme per migliorare la salute di tutti... 👍...
- È inaccettabile che l'AI medica discrimini gruppi etnici e di genere... 😡...
- Se l'AI replica i pregiudizi umani, non dovremmo concentrarci prima sull'eliminare i pregiudizi... 🤔...
Oltre la diagnosi: il rischio di perpetuare le disuguaglianze
La questione dei bias nell’AI medica non si limita alla diagnosi. Anche nella previsione del rischio di malattie, ad esempio attraverso l’uso di punteggi di rischio poligenici (che combinano i risultati di diversi test genetici), emergono problemi simili. Questi punteggi sono basati prevalentemente su popolazioni di origine europea, il che significa che i risultati potrebbero non essere applicabili a persone di altre origini. Inoltre, è importante ricordare che questi punteggi sono solo predittivi e non possono affermare con certezza che le persone svilupperanno una malattia.
La crescente consapevolezza di questi bias ha portato a una serie di iniziative volte a promuovere l’equità nell’AI medica. Tuttavia, la strada da percorrere è ancora lunga e richiede un impegno congiunto da parte di ricercatori, sviluppatori, operatori sanitari e politici. È fondamentale garantire che l’AI medica sia sviluppata e utilizzata in modo responsabile, tenendo conto delle esigenze e delle caratteristiche di tutti i gruppi della popolazione.
Verso un’AI medica più equa e inclusiva
La sfida di creare un’AI medica equa e inclusiva è complessa, ma non insormontabile. Richiede un approccio multidisciplinare che coinvolga esperti di machine learning, medici, bioeticisti e rappresentanti delle diverse comunità. È necessario investire nella raccolta di dati diversificati e rappresentativi, sviluppare algoritmi di debiasing più efficaci e promuovere la trasparenza e la responsabilità nello sviluppo e nell’implementazione dei modelli AI. Solo così potremo sfruttare appieno il potenziale dell’AI per migliorare la salute di tutti, senza lasciare indietro nessuno.
Automazione e trasformazione digitale non sono sinonimi di progresso incondizionato. L’automazione, in particolare, può amplificare le disuguaglianze se non viene progettata e implementata con una profonda consapevolezza delle implicazioni sociali. Una nozione base di automazione ci ricorda che l’efficienza non deve mai essere l’unico criterio guida. Una nozione avanzata ci spinge a considerare l’automazione come un processo continuo di apprendimento e adattamento, in cui i feedback umani e le considerazioni etiche giocano un ruolo centrale. Riflettiamo: l’AI medica può essere uno strumento potente per migliorare la salute di tutti, ma solo se siamo disposti a mettere in discussione i suoi bias e a lavorare per un futuro più equo e inclusivo.
- Sito ufficiale di Nature Digital Medicine, per approfondire la ricerca sull'AI e vaginosi.
- Nature Digital Medicine, rivista scientifica dove sono pubblicati studi sull'AI applicata alla medicina.
- Pagina della FDA sui dispositivi medici con AI e machine learning.
- Sito ufficiale di npj Digital Medicine, rivista che pubblica ricerche sull'AI medica.