Dopo alcuni casi in cui il ricorso all’intelligenza artificiale da parte degli avvocati (negli U.S.A. e successivamente in Italia) ha evidenziato l’emergere di “allucinazioni” nei testi elaborati dagli agenti IA, il problema sembra presentarsi anche per quanto riguarda i provvedimenti giudiziali.
Con due recentissime sentenze, la Corte di Cassazione è intervenuta in materia per rimediare ad errori già determinatisi e per richiamare l’attenzione sul potere decisionale del giudice e sulle fonti da cui trarre il proprio convincimento.
Nel primo caso, i Giudici della Suprema Corte hanno riscontrato gravi inesattezze nel testo della sentenza impugnata. Infatti, si rileva, la stessa “… è carente ed anche erronea nella parte in cui richiama principi giuridici non affermati da questa Corte di legittimità”. Ma vi è di più: “… la Corte territoriale non si è posta in sintonia con gli orientamenti richiamati, facendo riferimenti a principi di legittimità non affermati o a sentenze di questa Corte inesatte nel numero riportato: è, infatti, errato sostenere che il reato di utilizzo di fatture per operazioni inesistenti si perfezioni al momento dell’inserimento della fattura nella contabilità aziendale ed è invece ambiguo ed incoerente affermare che il momento consumativo del reato coincida con l’annotazione in contabilità e la dichiarazione fiscale … Né risulta in linea con i principi affermati da questa Corte l’affermazione secondo cui l’annotazione tardiva o differita in esercizi successivi non esclude l’utilizzo fraudolento del documento, in quanto l’infrazione fiscale si protrae fino al completamento della frode, dovendo essere ribadito che, solo con la condotta di presentazione della dichiarazione, il reato può considerarsi perfezionato” (sent. n. 25455 del 10 luglio 2025 – enfasi aggiunta).
Come si vede, non si tratta certo di meri refusi o di errori di trascrizione (o più precisamente del cosiddetto “copia ed incolla”).
Nel secondo caso, il Collegio ha rammentato le controindicazioni connesse all’uso della tecnologia in discorso, evidenziando che “… l’uso di strumenti informatici agevola, sul piano pratico, la redazione dei provvedimenti giudiziari ma al contempo aumenta il rischio (oggi esponenzialmente incrementato dall’irrompere sulla scena della intelligenza artificiale) che il giudice attinga “aliunde” gli argomenti del suo decidere, abdicando al dovere di apportare il suo ineliminabile ed insostituibile momento valutativo e facendo venir meno l’in sé del suo essere terzo ed imparziale” (sent. n. 34481 del 22 ottobre 2025 – enfasi aggiunta).
Gli stessi inconvenienti si sono verificati in Mississippi e New Jersey*, dove due giudici federali hanno dovuto ritirare provvedimenti che si sono rivelati viziati da imprecisioni (ad esempio, all’attore era stato attribuito il ruolo di convenuto e viceversa, oltre ad attribuire alle parti affermazioni non rinvenute in atti) e riferimenti a pronunce che non trovavano riscontro negli archivi giudiziari. E’ stato infatti verificato, a seguito di un’inchiesta disposta dalla Commissione Giustizia del Senato USA, due giudici federali americani (Henry Wingate del Mississippi e Julien Xavier Neals del New Jersey) hanno ammesso che i loro team avevano fatto ricorso a strumenti di AI per la redazione di ordinanze giudiziarie, le quali si sono dimostrate sbagliate. Tanto che il Presidente della Commissione Giustizia del Senato ha richiamato gli addetti ai lavori in ambito giuridico, sollecitando l’adozione di misure più incisive, atte a prevenire un uso distorto delle tecnologie più avanzate. Potrebbe anche aggiungersi a precisi doveri di controllo del materiale che proviene dagli assistenti legali e dai tirocinanti dei Giudici, sui quali in ultima analisi questi ultimi fondano le loro decisioni.
Un chiaro monito a far sì che, soprattutto in un settore delicato come quello giudiziario, non venga mai meno nell’elaborazione dei provvedimenti il contributo attivo degli operatori, unitamente alla supervisione dei medesimi sui risultati delle ricerche.
* La vicenda è stata tra gli altri riferita su Reuters da Debra Cassens Weiss, nell’articolo “Two federal judges say use of AI led to errors in US court rulings” del 23 ottobre 2025.