Un altro avvocato cita casi inesistenti suggeriti dall’AI. La sua scusa? “Colpa dello schermo rotto”

Il giudice: "L'intelligenza artificiale può essere un vantaggio per la comunità legale, ma deve essere utilizzata con cautela e umiltà"

Legal 30 mar 2026

4 min.

Un altro avvocato cita casi inesistenti suggeriti dall’AI. La sua scusa? “Colpa dello schermo rotto”

Le sanzioni per citazioni giurisprudenziali inventate ormai non fanno quasi più notizia. Questo caso, però, merita attenzione per la giustificazione creativa offerta dall’avvocato coinvolto.

Un legale in Nebraska ha depositato un atto d’appello infarcito di riferimenti a sentenze inesistenti. Nessuno dei casi citati compare su Westlaw, su LexisNexis, nella biblioteca pubblica delle decisioni d’appello del Nebraska. Zero risultati, su qualunque piattaforma. Fin qui, purtroppo, niente di nuovo.

La parte interessante arriva quando il tribunale chiede spiegazioni. L’avvocato non ammette di aver utilizzato l’intelligenza artificiale. Sostiene, invece, che lo schermo del laptop era rotto, aveva una ‘crepa’, e che questo avrebbe causato errori nel copiare e incollare i riferimenti giurisprudenziali recuperati dai database giuridici.

Un copia-incolla che – a dire dell’avvocato – avrebbe generato, in modo del tutto accidentale, citazioni di sentenze formalmente plausibili, complete di numero di volume e pagina. Sentenze che però non sono mai state pronunciate da nessun giudice. Uno schermo in grado di allucinare proprio come l’AI generativa. Sorprendente.

La corte: “Lo schermo rotto non spiega i casi completamente inventati”

Ma tutto questo alla corte non importa: Indipendentemente dal fatto che l’AI sia stata utilizzata o meno nella preparazione della memoria difensiva di Jason, la nostra analisi in questo caso rimane sostanzialmente la stessa. […] Come riconosciuto da un tribunale, ‘I progressi tecnologici sono all’ordine del giorno e non c’è nulla di intrinsecamente improprio nell’utilizzare uno strumento [AI] affidabile per ottenere assistenza. Ma le norme esistenti impongono agli avvocati un ruolo di controllo per garantire l’accuratezza dei loro documenti’”.

Ma non solo: “Un avvocato ha anche il dovere continuo di fornire una rappresentanza competente. […] Tenersi ‘al passo con i cambiamenti nella legge e nella sua prassi, compresi i benefici e i rischi associati alla tecnologia pertinente’, fa parte della fornitura di una rappresentanza competente”.

Nel caso di specie, la condotta dell’avvocato “solleva certamente potenziali violazioni delle Norme di condotta professionale del Nebraska” perché il legale “ha fatto numerose false dichiarazioni di diritto nel corso della memoria”, quando “un’adeguata diligenza – una semplice ricerca nei database giuridici Westlaw e LexisNexis, negli Statuti riveduti del Nebraska, nei regolamenti della Corte Suprema del Nebraska o nella Biblioteca online gratuita delle Corti d’Appello del Nebraska – avrebbe chiarito […] che molte delle citazioni fittizie, sia di casi che di statuti, non esistevano, che il caso ‘Kennedy contro Kennedy’ citato non è un caso reale e che le presunte sentenze dei casi reali citati non corrispondevano alle sentenze effettive di tali casi”.

Inoltre, con riferimento alle motivazioni dell’avvocato relative a un copia-incolla mal riuscito, la corte ha replicato: “La spiegazione […] potrebbe essere applicabile a una manciata di citazioni in cui le informazioni sulla fonte sono leggermente errate, ma non può spiegare le numerose citazioni fittizie, che non trovano riscontro né nei casi da cui si presume provengano né nella più ampia giurisprudenza del Nebraska. Non spiega nemmeno come mai alcuni casi sembrino essere stati completamente inventati.

E ha aggiunto: “Che si utilizzi o meno l’AI, gli obblighi di sincerità, competenza, diligenza e di presentare argomentazioni in buona fede rimangono gli stessi. L’AI, come altri strumenti tecnologici, può essere un vantaggio per la comunità legale, ma deve essere utilizzata con cautela e umiltà. Qualsiasi risultato inferiore metterebbe a repentaglio la reputazione della professione legale e comporterebbe uno spreco di tempo e risorse sia per i tribunali che per le parti in causa”.

L’atto d’appello è stato ovviamente cancellato, l’impugnazione è stata dichiarata inammissibile e l’avvocato è stato segnalato agli organi disciplinari.

Avvocato americano usa ChatGPT, che cita precedenti fasulli

L'avvocato americano Steven Schwartz ha utilizzato ChatGPT per definire la…

Il problema dell’automation bias

La scusa addotta dall’avvocato appare grottesca e quasi poetica nella sua assurdità: un avvocato che attribuisce a una crepa nel display la nascita spontanea di giurisprudenza mai esistita. Ma che l’errore nasca da un’allucinazione dell’AI, da un copia-incolla disattento o da un laptop malmesso, il passaggio mancante è sempre lo stesso. Un professionista del diritto ha firmato un atto processuale senza controllare se i precedenti citati esistessero davvero. Una verifica elementare, che richiede pochi minuti e che rappresenta il livello minimo di diligenza professionale.

È come se un pilota decidesse di ignorare l’altimetro perché il computer di bordo ‘dice’ che va tutto bene. Come se un medico scartasse a priori ciò che la sua esperienza lo porta a pensare per affidarsi alla diagnosi generata da un chatbot specializzato. Gli psicologi lo chiamano automation bias, ossia fidarsi ciecamente di un output automatizzato solo perché automatizzato.

I modelli di linguaggio ‘sbagliano’, anche quelli specializzati in un determinato dominio. Sono macchine probabilistiche e operano matematicamente. Quando mancano le informazioni in fase di training o online, questi tirano a indovinare e talvolta si inventano una risposta plausibile, ma completamente inventata. Dati fake, url inesistenti, risposte apparentemente sicure e ragionate, ma che in realtà nascondono – neanche troppo bene – errori grossolani. Errori che un professionista è tenuto a scovare. Spesso, basterebbe davvero una semplice rilettura.


Ultime news


Syenta, la startup australiana che promette di velocizzare la produzione globale di chip

L'azienda punta ad accorciare i tempi di produzione in maniera…

Syenta, la startup australiana che promette di velocizzare la produzione globale di chip
L’azienda italiana Engineering ha lanciato un’architettura per un’AI sovrana e governabile

Il sistema di AI EngGPT 2 garantisce tracciabilità e auditabilità…

L’azienda italiana Engineering ha lanciato un’architettura per un’AI sovrana e governabile
Gemini sbarca finalmente su Android Auto (ma non tutti sono contenti)

L'integrazione annunciata un anno fa è ufficialmente iniziata

Gemini sbarca finalmente su Android Auto (ma non tutti sono contenti)
Più di una persona su due nel mondo utilizza l’intelligenza artificiale

Con l'aumento dell'utilizzo cresce anche la diffidenza e circa il…

Più di una persona su due nel mondo utilizza l’intelligenza artificiale

In Evidenza


Intelligenza artificiale: prepararsi al 2026 | Il report di AI News

Il nuovo report di AI News per non farsi sorprendere…

Intelligenza artificiale: prepararsi al 2026 | Il report di AI News
AI, bolla o non bolla? Il parere degli esperti non è unanime

Ne abbiamo intervistati cinque per unire i puntini

AI, bolla o non bolla? Il parere degli esperti non è unanime
Luciano Floridi: “L’intelligenza artificiale non è intelligente”, la nostra intervista | AI Talks #20

"Se potessi tornare indietro, eliminerei l'espressione 'intelligenza artificiale', la chiamerei…

Luciano Floridi: “L’intelligenza artificiale non è intelligente”, la nostra intervista | AI Talks #20

Privacy policy| Cookie policy| Cookie setting| © 2026