E-Mail: [email protected]
- AIG, Great American e WR Berkley escludono i rischi AI.
- ChatGPT lanciato nel 2022, mancano dati storici per i rischi.
- Perdite AI potenzialmente di centinaia di milioni di dollari.
Un Ritiro Strategico
Nel panorama in rapida evoluzione dell’intelligenza artificiale (AI), un cambiamento significativo sta prendendo forma nel settore assicurativo. Grandi compagnie come AIG, Great American e WR Berkley stanno cercando di escludere i rischi legati all’AI dalle loro polizze aziendali. Questa mossa, apparentemente cautelativa, solleva interrogativi cruciali sulla responsabilità e la gestibilità dei rischi associati all’implementazione di strumenti di AI, come chatbot e agenti virtuali.
Il motivo principale di questa ritirata è la crescente preoccupazione per le potenziali richieste di risarcimento multimiliardarie che potrebbero derivare da errori o malfunzionamenti dei sistemi di AI. A differenza degli errori tradizionali, dove la responsabilità è facilmente identificabile, i rischi legati all’AI coinvolgono molteplici parti, tra cui sviluppatori, creatori di modelli e utenti finali. Questa complessità rende difficile valutare e gestire l’impatto potenziale di tali rischi, portando le compagnie assicurative a riconsiderare la loro copertura.
Ericson Chan, chief information officer di Zurich Insurance, ha sottolineato come la valutazione degli errori guidati dalla tecnologia sia diventata più complessa con l’AI, data la difficoltà nell’identificare la responsabilità. L’impatto potenziale sul mercato dei rischi guidati dall’AI potrebbe essere esponenziale, rendendo necessaria una rivalutazione delle strategie di copertura.
Le Sfide dell’Assicurazione AI
L’assicurazione dei rischi legati all’AI presenta sfide uniche. Innanzitutto, la mancanza di dati storici rende difficile la modellazione dei rischi in modo tradizionale. ChatGPT, ad esempio, è stato lanciato solo nel novembre 2022, il che significa che non ci sono precedenti su cui basarsi per valutare i rischi a lungo termine. In secondo luogo, l’adozione dell’AI è in rapida crescita in tutti i settori, il che significa che i rischi stanno aumentando per definizione. Infine, non tutte le compagnie assicurative sono pronte a coprire questi rischi, creando un vuoto nel mercato.
Un’ulteriore complicazione è la natura sistemica dei modelli di AI. Un errore in un modello può avere un impatto su molti settori contemporaneamente, soprattutto se questi settori utilizzano lo stesso modello o applicazioni basate su di esso. Questo rischio sistemico è ciò che preoccupa maggiormente le compagnie assicurative, poiché potrebbe portare a perdite massicce e simultanee, difficili da gestire attraverso la mutualizzazione.

- Finalmente qualcuno che solleva il problema della responsabilità... 🤔...
- Le assicurazioni fanno bene a tirarsi indietro, l'AI è troppo... 😠...
- E se invece vedessimo il ritiro delle assicurazioni come un'opportunità... 💡...
Il Rischio Sistemico dell’AI
Il Financial Times ha riportato che compagnie come AIG, Great American e WR Berkley stanno cercando di introdurre esclusioni esplicite per i rischi legati all’AI, in particolare per l’uso di agenti e modelli linguistici. Le potenziali perdite legate all’AI potrebbero raggiungere centinaia di milioni di dollari, se non di più. Il pericolo principale risiede nella possibilità di perdite correlate, massive e simultanee, impossibili da mutualizzare. Come riassume Aon, “Quello che [l’industria] non può permettersi è che un fornitore di AI commetta un errore che si traduce in 1.000 o 10.000 perdite”.
La letteratura sul rischio sistemico insegna che non è la dimensione assoluta delle istituzioni a determinarne la vulnerabilità, ma la struttura delle loro interconnessioni. I sistemi finanziari mostrano una dinamica “robusta ma fragile”: resistono a innumerevoli shock, ma possono crollare bruscamente quando uno shock specifico viaggia attraverso i canali giusti. L’AI generativa presenta tutte le caratteristiche di un sistema altamente favorevole al contagio. Quando un fornitore di AI implementa un aggiornamento difettoso, introduce un errore nei parametri di un modello o subisce una vulnerabilità di sicurezza informatica, non sono solo gli utenti isolati a essere interessati, ma migliaia, perché si affidano alla stessa infrastruttura.
Yann LeCun, uno dei “quattro principali studiosi di AI”, ha affermato che “i modelli linguistici di grandi dimensioni (LLM) esistenti diventeranno obsoleti entro cinque anni” e ha sottolineato che “l’apprendimento basato sul testo da solo non può raggiungere l’intelligenza artificiale (AI) a livello umano; la comprensione del mondo attraverso l’input sensoriale è essenziale”.
Verso una Nuova Era di Copertura Assicurativa
Di fronte a queste sfide, il settore assicurativo sta esplorando diverse opzioni. Una è quella di costruire resilienza, sviluppando polizze specifiche per coprire i rischi legati all’AI. Questo richiederebbe l’accesso a set di dati rilevanti, la capacità di analizzare questi dati attraverso algoritmi e la capacità di sbloccare la capacità assicurativa. Un’altra opzione è quella di integrare i rischi legati all’AI nelle polizze di assicurazione informatica esistenti.
Tuttavia, la questione della responsabilità legale rimane un punto critico. Chi è responsabile quando l’AI causa danni? I contratti dei fornitori di AI spesso includono limitazioni drastiche di responsabilità, esclusioni di garanzie di performance e clausole che trasferiscono quasi tutti i rischi all’utente. Questa asimmetria contrattuale crea un divario normativo, contrattuale e assicurativo, portando a un rischio sistemico legale caratterizzato da responsabilità diffusa, dipendenza concentrata e allocazione inefficiente del rischio.
Conclusione: Navigare l’Incertezza dell’AI
Il ritiro delle compagnie assicurative dalla copertura dei rischi legati all’AI è un segnale di allarme che evidenzia la necessità di una maggiore comprensione e gestione dei rischi associati a questa tecnologia in rapida evoluzione. Mentre l’AI continua a trasformare i settori, è fondamentale che le aziende, i regolatori e le compagnie assicurative collaborino per sviluppare quadri normativi e strategie di copertura che promuovano l’innovazione responsabile e proteggano da potenziali danni.
Amici, parliamoci chiaro. L’automazione, in fondo, è come avere un esercito di piccoli aiutanti digitali che lavorano giorno e notte per noi. Pensate a una catena di montaggio dove ogni robot fa la sua parte senza sosta. Ecco, l’AI porta questo concetto a un livello superiore, perché questi aiutanti non solo eseguono compiti, ma imparano e si adattano. E qui arriva il bello (o il brutto, a seconda dei punti di vista): se questi sistemi sbagliano, l’errore si propaga a macchia d’olio, creando un caos che le assicurazioni, giustamente, non vogliono coprire. Un concetto più avanzato è quello della “resilienza algoritmica”, ovvero la capacità di un sistema automatizzato di riprendersi da un errore o un attacco senza compromettere l’intera operazione. Questo richiede una progettazione accurata, test approfonditi e una continua supervisione, ma è essenziale per garantire che l’automazione sia un vantaggio e non una fonte di disastri. Riflettiamoci su: stiamo davvero capendo come controllare queste nuove forze, o siamo solo passeggeri su un treno lanciato a tutta velocità verso l’ignoto?








