E-Mail: [email protected]
- High Court UK avverte: AI non fa ricerca legale affidabile.
- Avvocato presenta 18 citazioni inventate, rischio sanzioni.
- ChatGPT "allucina" nel 51%-79% dei casi con domande aperte.
- Vectera: AI allucina tra lo 0.7% e il 2.2%.
- Responsabilità e diligenza: pilastri del futuro legale.
## L’Avvento dell’AI nel Diritto: Un’Arma a Doppio Taglio
L’integrazione dell’intelligenza artificiale (AI) nel campo legale sta generando un acceso dibattito, soprattutto in seguito a recenti episodi che hanno visto avvocati incappare in errori grossolani a causa dell’utilizzo di strumenti come ChatGPT. La questione centrale riguarda l’affidabilità di tali tecnologie e la responsabilità professionale degli avvocati nell’era digitale.
La High Court of England and Wales ha lanciato un severo monito, sottolineando che gli avvocati devono adottare misure più rigorose per prevenire l’uso improprio dell’AI nel loro lavoro. La giudice Victoria Sharp ha affermato che gli strumenti di AI generativa “non sono in grado di condurre ricerche legali affidabili“, avvertendo che le risposte apparentemente coerenti e plausibili fornite da questi sistemi possono rivelarsi completamente errate.

## Citazioni Fantasma e Conseguenze Reali
I casi che hanno portato a questo avvertimento sono emblematici. In una causa, un avvocato ha presentato un documento con 45 citazioni, di cui 18 completamente inventate. In un altro caso, un legale ha citato cinque sentenze inesistenti. Questi episodi hanno sollevato dubbi sulla competenza e sulla condotta degli avvocati coinvolti, nonché sull’adeguatezza della formazione, della supervisione e della regolamentazione della professione legale.
La giudice Sharp ha chiarito che la mancata verifica dell’accuratezza delle ricerche condotte con l’AI può comportare sanzioni severe, che vanno dall’ammonimento pubblico all’avvio di procedimenti per oltraggio alla corte, fino alla segnalazione alla polizia. La posta in gioco è alta: la credibilità del sistema giudiziario e la fiducia del pubblico.
## AI: Uno Strumento Potente, Ma Non Infallibile
È fondamentale comprendere che gli LLM, come ChatGPT e Gemini, sono progettati per produrre risposte “statisticamente plausibili“, non necessariamente accurate. Questi sistemi sono soggetti a “allucinazioni“, ovvero generano informazioni fuorvianti o prive di fondamento fattuale.
Vectera, una piattaforma di AI Agent e Assistance, ha monitorato l’accuratezza dei chatbot AI dal 2023, rilevando che i programmi migliori “allucinano” tra lo 0,7% e il 2,2% delle volte. Tuttavia, questa percentuale aumenta drasticamente quando i chatbot sono chiamati a produrre testi lunghi da zero. OpenAI stessa ammette che ChatGPT “allucina” tra il 51% e il 79% delle volte quando gli vengono poste domande aperte.
## Verso un Uso Consapevole dell’AI nel Diritto
La questione non è se l’AI debba essere utilizzata nel diritto, ma come. L’AI può essere uno strumento potente per la ricerca legale, l’analisi dei dati e l’automazione di compiti ripetitivi, ma non può sostituire il pensiero critico, il giudizio professionale e la responsabilità etica dell’avvocato.
È necessario sviluppare linee guida chiare e rigorose sull’uso dell’AI nel diritto, promuovere la formazione degli avvocati sull’utilizzo responsabile di queste tecnologie e rafforzare i meccanismi di controllo e supervisione. Solo così sarà possibile sfruttare appieno i benefici dell’AI, mitigando al contempo i rischi e garantendo l’integrità del sistema giudiziario.
## Responsabilità e Diligenza: I Pilastri del Futuro Legale
L’avvento dell’AI nel mondo legale rappresenta una sfida epocale, ma anche un’opportunità straordinaria. La chiave per un futuro in cui l’AI e gli avvocati collaborano in modo efficace risiede nella responsabilità e nella diligenza. Gli avvocati devono essere consapevoli dei limiti dell’AI, verificare sempre l’accuratezza delle informazioni generate da questi sistemi e assumersi la piena responsabilità del proprio lavoro.
L’AI non è un sostituto dell’intelligenza umana, ma uno strumento che può amplificarla. Sta a noi utilizzarlo in modo saggio e responsabile, per costruire un sistema legale più efficiente, equo e accessibile a tutti.
—
Amici, parliamoci chiaro: l’automazione nel diritto non è fantascienza, è già qui. Pensate solo a quanto tempo si potrebbe risparmiare con un sistema che analizza automaticamente la giurisprudenza. Questa è automazione di base: semplificare processi esistenti.
Ma la vera trasformazione digitale va oltre. Immaginate un sistema che, grazie all’AI, non solo trova le sentenze rilevanti, ma prevede l’esito di una causa sulla base di dati storici e precedenti legali. Questo è un livello superiore: ottimizzare le decisioni strategiche.
La riflessione che vi propongo è questa: siamo pronti a fidarci di un algoritmo per questioni così delicate? Dove tracciamo il confine tra l’aiuto dell’AI e la delega della nostra responsabilità? Il futuro del diritto, come di molti altri settori, dipenderà dalla nostra capacità di trovare questo equilibrio.