Giustizia

ChatGPT in tribunale: le “allucinazioni” dell’IA imbarazzano un avvocato a Firenze

Il 14 marzo 2025, il Tribunale di Firenze, Sezione Imprese, è stato teatro di un episodio che potrebbe segnare una svolta nel rapporto tra intelligenza artificiale e giustizia in Italia. Un avvocato, durante un procedimento sulla tutela di marchi e diritto d’autore, ha presentato una memoria difensiva contenente riferimenti a sentenze della Corte di Cassazione che, in realtà, non esistevano. La scoperta è stata sorprendente: le citazioni erano state generate da ChatGPT, il popolare modello linguistico di OpenAI, utilizzato da una collaboratrice dello studio legale senza che il difensore ne fosse a conoscenza. L’episodio, riportato da Wired Italia, ha acceso un dibattito sui rischi delle “allucinazioni” dell’IA e sulle responsabilità dei professionisti che si affidano a questi strumenti senza un’adeguata verifica.
Il caso: sentenze inventate e un processo a rischio
La vicenda si è svolta nell’ambito di un contenzioso sulla proprietà intellettuale: il proprietario di un sito web satirico aveva intentato un ricorso d’urgenza contro un’azienda di t-shirt, accusandola di aver utilizzato senza permesso alcune sue vignette. Durante il procedimento di reclamo, identificato con il numero 11053/2024 R.G., l’avvocato della difesa ha depositato una memoria che citava sentenze della Cassazione a supporto della tesi della buona fede dell’azienda nell’acquisto di merce contraffatta. Tuttavia, la controparte ha sollevato un’eccezione, dimostrando che quelle sentenze non esistevano. Messo alle strette, il legale ha ammesso che i riferimenti erano stati ottenuti tramite ChatGPT da una sua collaboratrice, senza che lui avesse verificato la loro autenticità.
Il fenomeno dietro questo errore è noto come “allucinazioni di intelligenza artificiale”: l’IA, nel tentativo di rispondere alle richieste dell’utente, genera informazioni inesistenti ma presentate come veritiere, spesso confermandole anche a seguito di ulteriori interrogazioni. Nel caso di Firenze, ChatGPT ha inventato numeri e contenuti di sentenze che non avevano nulla a che fare con l’argomento trattato. La controparte ha chiesto una condanna per lite temeraria ai sensi dell’articolo 96 del Codice di Procedura Civile, sostenendo che l’inserimento di riferimenti fasulli fosse un atto di mala fede. I giudici, tuttavia, hanno rigettato la richiesta, rilevando che l’errore non aveva influenzato la linea difensiva – già fondata su altri argomenti – e che non c’erano prove di dolo.
Un precedente che fa riflettere
Non è la prima volta che ChatGPT finisce sotto i riflettori in ambito giudiziario. Negli Stati Uniti, casi simili si erano già verificati: a febbraio 2025, l’avvocato Rudwin Ayala, davanti a una corte del Wyoming, aveva ammesso di aver utilizzato informazioni errate fornite da un’IA, scusandosi pubblicamente per l’imbarazzo causato. A New York, nel 2023, l’avvocato Steven Schwartz era stato multato per aver presentato un documento con sentenze inesistenti generate da ChatGPT in un caso contro la compagnia aerea Avianca, giustificandosi con la sua inesperienza con il chatbot. Il caso di Firenze, però, è il primo di questo genere in Italia, e il fatto che sia avvenuto in un contesto professionale così delicato come un tribunale solleva interrogativi urgenti.
L’avvocato Ernesto Belisario, intervistato da Wired Italia, ha sottolineato la gravità dell’episodio: “Non controllare le informazioni inserite in un atto giudiziario è una condotta che deve essere censurata”, ha dichiarato, evidenziando come l’uso indiscriminato dell’IA possa portare non solo a un imbarazzo professionale, ma a una perdita di credibilità per l’intero studio legale. I giudici di Firenze, pur non ravvisando mala fede, hanno rimarcato l’“omesso controllo” da parte del legale, un monito chiaro sull’importanza della supervisione umana quando si utilizzano strumenti di intelligenza artificiale.
Rischi e opportunità dell’IA in tribunale
Il caso di Firenze non è solo un aneddoto curioso, ma un campanello d’allarme per il sistema giudiziario italiano. L’intelligenza artificiale, come dimostrano esperimenti precedenti condotti a Firenze già nel 2023, può essere un alleato prezioso: l’avvocato Alessandro Traversi aveva testato ChatGPT per redigere arringhe difensive, definendo i risultati “sconcertanti” per la loro qualità, e prevedendo che l’IA potesse presto calcolare risarcimenti o prevedere esiti processuali con un’accuratezza del 99% in ambiti come il diritto tributario. Tuttavia, il caso del 2025 dimostra che i benefici dell’IA – come la velocità e l’accesso a grandi quantità di dati – si accompagnano a rischi concreti, soprattutto quando manca un controllo umano.
Le “allucinazioni” di ChatGPT non sono un problema nuovo: il chatbot, basato su modelli probabilistici, genera risposte a partire da un vasto database di informazioni, ma non è immune da errori. Come sottolineava Umberto Eco, in un mondo di informazioni infinite, distinguere il vero dal falso è una competenza cruciale, e l’IA non può sostituire il giudizio umano, almeno non ancora. Questo episodio evidenzia una pigrizia professionale che non può essere giustificata dalla pressione del lavoro: affidarsi ciecamente a un chatbot per un atto giudiziario non è solo un errore tecnico, ma una mancanza di responsabilità verso il cliente e il tribunale.
D’altro canto, il caso solleva una questione più ampia: come regolamentare l’uso dell’IA nel sistema giudiziario? In Europa esiste una carta etica che raccomanda che ogni decisione resti sotto il controllo umano, ma non ci sono ancora linee guida specifiche per i professionisti del diritto. Il Tribunale di Firenze, non sanzionando l’avvocato, ha scelto una linea morbida, ma episodi simili potrebbero portare a precedenti più severi. Nel frattempo, il Garante per la protezione dei dati personali ha inflitto a OpenAI una sanzione di 15 milioni di euro per violazioni sulla privacy, un procedimento ora al vaglio del Tribunale di Roma, segno di una crescente attenzione alle implicazioni legali dell’IA.
Verso un futuro più consapevole
Il caso di Firenze ci insegna che l’intelligenza artificiale, per quanto avanzata, non è infallibile. ChatGPT può essere un valido strumento per velocizzare ricerche o redigere bozze, ma il suo uso deve essere accompagnato da una verifica rigorosa delle informazioni. Per i professionisti del diritto, questo significa non solo conoscere a fondo gli strumenti tecnologici, ma anche assumersi la responsabilità dei loro limiti. Come ha scritto un commentatore su Tom’s Hardware, “si chiama pigrizia”, e in un contesto delicato come quello giudiziario, la pigrizia può costare cara.
La vicenda del Selvatico di Padova, riportata da AGI il 20 aprile 2025, mostra un altro lato della resistenza al cambiamento: mentre lì il dibattito riguardava l’inclusività linguistica dello schwa, qui si tratta di un’innovazione tecnologica che, se mal gestita, può compromettere la credibilità del sistema. Entrambi i casi, però, ci ricordano che il progresso – linguistico o tecnologico – richiede dialogo e consapevolezza, non censura o uso acritico. Il futuro dei tribunali italiani dipenderà dalla capacità di integrare l’IA in modo etico e responsabile, senza dimenticare che la giustizia, alla fine, è una questione di persone, non di algoritmi.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Litis.it
Panoramica privacy

This website uses cookies so that we can provide you with the best user experience possible. Cookie information is stored in your browser and performs functions such as recognising you when you return to our website and helping our team to understand which sections of the website you find most interesting and useful.