E-Mail: [email protected]
- High Court UK avverte: AI non fa ricerca legale affidabile.
 - Avvocato presenta 18 citazioni inventate, rischio sanzioni.
 - ChatGPT "allucina" nel 51%-79% dei casi con domande aperte.
 - Vectera: AI allucina tra lo 0.7% e il 2.2%.
 - Responsabilità e diligenza: pilastri del futuro legale.
 
## L’Avvento dell’AI nel Diritto: Un’Arma a Doppio Taglio
L’integrazione dell’intelligenza artificiale (AI) nel campo legale sta generando un acceso dibattito,  soprattutto  in seguito a recenti episodi che hanno visto avvocati incappare in errori grossolani a causa dell’utilizzo di strumenti come ChatGPT. La questione  centrale riguarda l’affidabilità di tali tecnologie e la responsabilità professionale degli avvocati nell’era digitale.
La High Court of England and Wales ha lanciato un  severo monito,  sottolineando che gli avvocati devono adottare misure più rigorose per prevenire l’uso improprio dell’AI nel loro lavoro. La giudice Victoria Sharp  ha  affermato che gli strumenti  di AI generativa “non sono in grado di condurre ricerche legali affidabili“, avvertendo che le risposte apparentemente coerenti e plausibili fornite da questi sistemi possono rivelarsi completamente  errate.

## Citazioni Fantasma e Conseguenze Reali
  I  casi che hanno portato  a questo avvertimento sono emblematici. In una causa, un avvocato ha presentato un documento con 45 citazioni, di cui 18 completamente inventate. In un altro caso, un legale ha citato cinque sentenze inesistenti. Questi episodi hanno sollevato dubbi sulla competenza e sulla condotta degli avvocati coinvolti, nonché sull’adeguatezza della formazione,  della supervisione e della regolamentazione della professione legale.
La giudice Sharp ha chiarito che la mancata verifica dell’accuratezza delle ricerche  condotte con l’AI può comportare sanzioni severe, che vanno dall’ammonimento pubblico all’avvio di procedimenti  per oltraggio  alla corte, fino alla segnalazione  alla polizia. La posta in gioco  è alta: la credibilità del sistema giudiziario e la  fiducia del pubblico.
## AI: Uno Strumento Potente, Ma Non Infallibile
È fondamentale comprendere che  gli LLM, come ChatGPT e  Gemini, sono progettati per produrre risposte “statisticamente  plausibili“, non necessariamente accurate. Questi sistemi sono soggetti  a “allucinazioni“, ovvero generano informazioni fuorvianti  o prive di fondamento fattuale.
Vectera, una piattaforma di AI Agent e Assistance, ha monitorato l’accuratezza dei chatbot AI dal 2023, rilevando che i programmi migliori “allucinano” tra lo 0,7% e il 2,2% delle volte. Tuttavia, questa percentuale aumenta drasticamente quando i chatbot sono chiamati a produrre testi lunghi da zero. OpenAI stessa ammette che ChatGPT “allucina” tra il 51% e il 79% delle volte quando gli vengono poste domande aperte.
## Verso un Uso  Consapevole dell’AI nel Diritto
La questione non  è se l’AI debba essere  utilizzata  nel diritto, ma come. L’AI può essere uno strumento potente per la ricerca legale, l’analisi dei dati e l’automazione di compiti ripetitivi, ma non può sostituire il pensiero critico, il giudizio professionale e la responsabilità etica dell’avvocato.
È necessario sviluppare linee guida chiare e rigorose sull’uso dell’AI nel diritto, promuovere la formazione degli avvocati sull’utilizzo responsabile di queste tecnologie e rafforzare i meccanismi di controllo e supervisione. Solo così sarà possibile sfruttare appieno i benefici dell’AI, mitigando al contempo i rischi e garantendo l’integrità del sistema giudiziario.
## Responsabilità e Diligenza: I Pilastri del Futuro Legale
L’avvento dell’AI nel mondo legale rappresenta una sfida epocale, ma anche un’opportunità straordinaria. La chiave per un futuro  in cui  l’AI e gli avvocati collaborano in modo efficace risiede nella responsabilità e nella diligenza. Gli avvocati devono essere consapevoli dei limiti dell’AI, verificare sempre  l’accuratezza delle informazioni generate da questi sistemi e assumersi la  piena responsabilità del proprio lavoro.
L’AI non è  un sostituto dell’intelligenza umana, ma uno strumento che può amplificarla. Sta a noi utilizzarlo in modo saggio  e  responsabile, per costruire un sistema legale più efficiente, equo  e  accessibile a tutti.
—
Amici, parliamoci chiaro: l’automazione nel diritto non è fantascienza, è già qui. Pensate solo a quanto tempo si potrebbe risparmiare con un sistema che analizza automaticamente la giurisprudenza. Questa è automazione di base: semplificare processi esistenti.
Ma la vera trasformazione digitale va oltre. Immaginate un sistema che, grazie all’AI, non solo trova le sentenze rilevanti, ma prevede l’esito di una causa sulla base di dati storici e precedenti legali. Questo è un livello superiore: ottimizzare le decisioni strategiche.
La riflessione che vi propongo è questa: siamo pronti a fidarci di un algoritmo per questioni così delicate? Dove tracciamo il confine tra l’aiuto dell’AI e la delega della nostra responsabilità? Il futuro del diritto, come di molti altri settori, dipenderà dalla nostra capacità di trovare questo equilibrio.








