Home Blog Chi siamo Contatti Prova gratis
6 min di lettura

Avvocato sanzionato per sentenze inventate dall'AI: il caso di Siracusa

Un avvocato di Siracusa è stato condannato a pagare oltre 30.000 euro per aver inserito in atti giudiziari quattro sentenze della Cassazione generate dall'intelligenza artificiale e mai esistite. La sentenza n. 338/2026 del giudice Alfredo Spitaleri segna un precedente importante per l'uso dell'AI nella professione forense.

I fatti: quattro sentenze inesistenti

Il caso nasce da un procedimento civile presso il Tribunale di Siracusa, nel quale un avvocato ha depositato atti contenenti riferimenti a quattro sentenze della Corte di Cassazione: Cass. n. 1216/2000, Cass. n. 8379/2006, Cass. n. 14795/2003 e Cass. n. 4553/2004. Citazioni apparentemente solide, con numeri di registro, anno e massime dettagliate.

Il giudice Alfredo Spitaleri, insospettito dalla formulazione delle massime, ha disposto una verifica puntuale. L'esito è stato inequivocabile: i numeri di sentenza esistono effettivamente negli archivi della Cassazione, ma il contenuto citato non corrisponde in alcun modo a quanto deciso dalla Corte. Non si trattava, dunque, di sentenze inventate dal nulla, ma di pronunce reali il cui contenuto è stato manipolato dall'intelligenza artificiale.

Questo dettaglio è cruciale. L'AI non ha generato numeri casuali: ha associato numeri di registro reali a massime plausibili ma false. Un tipo di errore particolarmente insidioso, perché supera il primo livello di verifica — la ricerca del numero — e può ingannare anche un professionista esperto che non approfondisca il contenuto effettivo della pronuncia.

Le sentenze citate non dicono quello che l'intelligenza artificiale sostiene. I numeri esistono, ma i principi di diritto sono stati interamente fabbricati.

La sanzione: 30.103 euro

Il giudice Spitaleri, con la sentenza n. 338/2026, ha applicato una sanzione articolata su tre voci distinte, per un totale di 30.103 euro:

Il fondamento normativo della condanna è l'art. 96 c.p.c., che disciplina la responsabilità aggravata per chi agisce o resiste in giudizio con mala fede o colpa grave. Il giudice ha ritenuto che l'inserimento di giurisprudenza non verificata in atti processuali configuri quantomeno una colpa grave, indipendentemente dall'intenzionalità della condotta.

La portata del precedente è significativa: per la prima volta in Italia, un giudice sanziona esplicitamente l'uso non verificato di output generati dall'intelligenza artificiale in sede processuale. La sentenza stabilisce un principio chiaro: l'utilizzo dell'AI non esonera il professionista dall'obbligo di verifica delle fonti.

La reazione dell'Ordine degli Avvocati

La vicenda ha suscitato un dibattito immediato nella comunità forense siracusana e nazionale. Giuseppe Gurrieri, vicepresidente dei penalisti di Siracusa, ha offerto una lettura equilibrata del caso, evitando tanto l'allarmismo quanto la minimizzazione.

L'intelligenza artificiale non è il problema. Il problema è la mancata verifica. Un appropriato utilizzo dello strumento può essere utile alla professione.

La posizione di Gurrieri riflette un orientamento condiviso da gran parte dell'avvocatura italiana: l'AI è uno strumento legittimo e potenzialmente prezioso, ma il suo utilizzo richiede un protocollo di verifica rigoroso. L'obbligo deontologico di diligenza professionale non si attenua perché il lavoro è stato delegato a un algoritmo. Al contrario, l'uso di strumenti automatizzati impone una responsabilità aggiuntiva di controllo.

Il caso di Siracusa si inserisce in un contesto internazionale già ricco di precedenti. Negli Stati Uniti, l'avvocato Steven Schwartz fu sanzionato nel 2023 per aver citato sentenze inesistenti generate da ChatGPT in una causa contro la compagnia aerea Avianca. In Colombia, un giudice ha utilizzato ChatGPT per redigere una sentenza, sollevando un dibattito sulla legittimità dell'uso dell'AI in sede giudicante. Il caso italiano aggiunge un tassello europeo a questa giurisprudenza emergente.

Cosa insegna questo caso agli studi legali

La sentenza n. 338/2026 del Tribunale di Siracusa non è un monito contro l'intelligenza artificiale. È un monito contro l'uso acritico di qualsiasi fonte non verificata. Le lezioni per la professione forense sono precise e operative.

Per gli studi legali che intendono integrare l'AI nei propri flussi di lavoro, il caso Siracusa suggerisce l'adozione di un protocollo interno di validazione: ogni output dell'AI destinato a un atto processuale deve passare attraverso un controllo umano documentato, con riscontro sulle fonti primarie.

Come LegaleAI affronta il problema

Il caso di Siracusa evidenzia un problema strutturale degli strumenti di AI generativa generalisti: le cosiddette allucinazioni, ovvero la generazione di informazioni plausibili ma false. È un limite intrinseco dei modelli linguistici che non hanno accesso a banche dati verificate in tempo reale.

LegaleAI è stato progettato specificamente per mitigare questo rischio, attraverso un'architettura che mette la verifica al centro del processo:

Nessuno strumento tecnologico può eliminare completamente il rischio di errore. Ma un sistema progettato con consapevolezza dei limiti dell'AI — e con il rispetto della deontologia forense italiana — può ridurre significativamente la probabilità che casi come quello di Siracusa si ripetano.


Conclusione

Il caso dell'avvocato di Siracusa non chiude una porta sull'intelligenza artificiale nella professione forense. La apre, ma con un cartello chiaro all'ingresso: verificare sempre, delegare mai. L'AI può rendere un avvocato più veloce, più informato, più efficiente. Ma non può renderlo più diligente. La diligenza resta una qualità esclusivamente umana, e il caso n. 338/2026 ce lo ricorda con 30.103 euro di chiarezza.

Provi LegaleAI. 14 giorni gratis.

L'assistente AI progettato per gli avvocati italiani. Conforme al Vademecum OdA Roma 2026. Da 20 euro al mese.

Inizia la prova gratuita