E-Mail: [email protected]
- Aumento malfunzionamenti AI: 1.401 segnalazioni alla FDA (2021-2025).
- TruDi (J&J): Almeno 10 lesioni per indicazioni errate.
- Richiami AI: il 43% entro un anno dall'approvazione.
L’integrazione dell’intelligenza artificiale (AI) nei dispositivi medici, promossa come motore di crescita e innovazione, sta sollevando crescenti preoccupazioni riguardo alla sicurezza dei pazienti e all’adeguatezza dei quadri normativi esistenti. L’aumento esponenziale delle segnalazioni di malfunzionamenti e incidenti avversi, unitamente alla riduzione del personale degli enti regolatori, dipinge un quadro allarmante in cui i pazienti rischiano di diventare involontari soggetti di “prova ed errore”.
## L’ascesa dell’AI nel settore medicale e i suoi rischi
Le aziende produttrici di dispositivi medici stanno rapidamente integrando l’AI in apparecchiature chirurgiche e diagnostiche. Questo processo, sebbene promettente, introduce nuove modalità di errore e potenziali responsabilità legali per gli ospedali. I dati indicano un aumento significativo delle segnalazioni di sospetti danni e malfunzionamenti agli enti regolatori.
Un caso emblematico è quello del sistema di navigazione TruDi di Acclarent, una società di Johnson & Johnson. Nel 2021, l’azienda ha annunciato l’integrazione di algoritmi di machine learning nel sistema, progettato per assistere gli otorinolaringoiatri negli interventi chirurgici ai seni paranasali. Tuttavia, dopo l’introduzione dell’AI, le segnalazioni di malfunzionamenti e incidenti avversi sono aumentate vertiginosamente, superando di gran lunga i livelli precedenti.

Secondo quanto riportato, tra la fine del 2021 e novembre 2025, almeno 10 persone hanno subito lesioni presumibilmente collegate alla fornitura di indicazioni errate da parte del sistema TruDi sulla posizione degli strumenti all’interno del cranio. Le conseguenze includono perdite di liquido cerebrospinale attraverso la cavità nasale, perforazione involontaria della base cranica e ictus causati da danni accidentali alle principali arterie. Due pazienti colpiti da ictus hanno intentato cause legali in Texas, sostenendo che l’AI nel sistema TruDi ha contribuito alle loro lesioni.
## Segnalazioni di “errata identificazione di parti del corpo” e altre anomalie
La FDA sottolinea che le segnalazioni di eventi avversi e malfunzionamenti presentano limitazioni intrinseche: possono mancare di informazioni dettagliate, essere modificate per proteggere segreti commerciali o addirittura generare segnalazioni multiple per lo stesso incidente. Pertanto, l’attribuzione non può basarsi esclusivamente su queste segnalazioni.
Tuttavia, secondo le statistiche, tra le segnalazioni presentate alla FDA tra il 2021 e ottobre 2025, almeno 1.401 hanno coinvolto i 1.357 prodotti alimentati dall’AI elencati dalla FDA, di cui almeno 115 menzionavano problemi di software, algoritmi o programmazione.
Un esempio citato è quello di Sonio Detect, utilizzato per l’ecografia prenatale, che nel giugno 2025 ha presentato un problema con il suo algoritmo che “etichettava erroneamente le strutture fetali e le associava a parti del corpo errate”. Un altro esempio riguarda i dispositivi di monitoraggio cardiaco di Medtronic, in cui almeno 16 segnalazioni hanno affermato che i dispositivi alimentati dall’AI non sono riusciti a rilevare ritmi anormali o arresti cardiaci.
## Tassi di richiamo elevati e lacune normative
I dati sui richiami stanno intensificando l’attenzione degli investitori sulla “curva del rischio post-quotazione”. Uno studio pubblicato nell’agosto 2025 nel JAMA Health Forum ha rilevato che 60 dispositivi medici AI autorizzati dalla FDA erano collegati a 182 richiami di prodotti, con il 43% di tali richiami che si verificano entro meno di un anno dall’approvazione. Lo studio ha rilevato che il tasso di richiamo per questi dispositivi era circa il doppio del tasso di richiamo per tutti i dispositivi approvati in base a normative FDA simili.
La FDA in genere richiede studi clinici per i nuovi farmaci, ma i dispositivi medici sono soggetti a un diverso percorso di revisione. La maggior parte dei dispositivi alimentati dall’AI che entrano nel mercato non necessitano di essere testati sui pazienti; invece, possono soddisfare i requisiti normativi facendo riferimento a dispositivi precedentemente autorizzati che non hanno funzionalità AI. Questo approccio solleva interrogativi sull’adeguatezza dei quadri normativi tradizionali per garantire la sicurezza e l’efficacia dei dispositivi alimentati dall’AI.
## Pressione sulla capacità normativa e riduzione del personale
Attualmente ci sono almeno 1.357 dispositivi medici autorizzati dalla FDA che utilizzano l’AI, un numero che è raddoppiato rispetto a prima del 2022. Contemporaneamente, la FDA sta affrontando una crescente pressione sulla sua capacità normativa a causa della riduzione del personale. All’inizio dello scorso anno, l’amministrazione Trump ha iniziato a smantellare il team AI, con conseguenti licenziamenti o dimissioni di circa 15 dei circa 40 scienziati AI del DIDSR. Anche il Digital Health Center of Excellence, responsabile della formulazione delle politiche sui dispositivi AI, ha perso circa un terzo del suo personale.
Alcuni ex dipendenti affermano che, dopo le riduzioni del personale, il carico di lavoro per alcuni revisori è quasi raddoppiato e “quando le risorse sono insufficienti, diventa ancora più probabile che i problemi vengano trascurati”.
## Verso un futuro più sicuro: bilanciare innovazione e sicurezza
L’integrazione dell’AI nei dispositivi medici offre un potenziale enorme per migliorare la diagnosi, il trattamento e la cura dei pazienti. Tuttavia, è fondamentale affrontare i rischi associati a questa tecnologia e garantire che siano in atto adeguate misure di sicurezza e quadri normativi.
È necessario un approccio più rigoroso alla valutazione e all’approvazione dei dispositivi alimentati dall’AI, che includa studi clinici approfonditi e una valutazione continua delle prestazioni del dispositivo nel mondo reale. Inoltre, è essenziale rafforzare la capacità normativa della FDA e garantire che disponga delle risorse e delle competenze necessarie per supervisionare efficacemente questo settore in rapida evoluzione.
La trasparenza e la responsabilità sono fondamentali. I produttori di dispositivi medici devono essere tenuti a divulgare in modo trasparente i rischi e i limiti dei loro prodotti alimentati dall’AI, e devono essere ritenuti responsabili per eventuali danni causati da malfunzionamenti o errori del dispositivo.
Solo attraverso un approccio equilibrato che promuova l’innovazione e protegga la sicurezza dei pazienti possiamo realizzare appieno il potenziale dell’AI nel settore medicale.
## Riflessioni sull’automazione e la trasformazione digitale nel settore medico
L’automazione nel settore medico, spinta dall’intelligenza artificiale, promette di rivoluzionare la diagnosi e il trattamento delle malattie. Tuttavia, come dimostrano i casi citati, l’implementazione di queste tecnologie richiede una profonda consapevolezza dei rischi potenziali. Una nozione base di automazione è che essa non è una panacea, ma uno strumento che deve essere utilizzato con cautela e supervisione umana.
Un concetto più avanzato riguarda la *scalabilità della responsabilità*. Man mano che l’AI assume un ruolo sempre più importante nelle decisioni mediche, è fondamentale definire chiaramente chi è responsabile in caso di errore. Questo implica non solo la responsabilità legale dei produttori, ma anche la responsabilità etica dei medici che utilizzano queste tecnologie.
La trasformazione digitale nel settore medico non è solo una questione di implementare nuove tecnologie, ma di ripensare i processi e le responsabilità. È un percorso complesso che richiede un dialogo aperto tra medici, ingegneri, regolatori e pazienti, per garantire che l’innovazione sia al servizio della salute e del benessere di tutti.








