L’UNCAT ha segnalato all’Agenzia delle Entrate l’esistenza di evidenti errori nella motivazione di un accertamento fiscale, molto probabilmente generato attraverso l’intelligenza artificiale.
Per la verità, un caso simile era già accaduto in materia giudiziaria quando il Tribunale di Torino, Sezione lavoro, con ordinanza n. 1018 del 16 settembre scorso, ha accertato che la parte ricorrente aveva agito in giudizio con malafede o, quantomeno, con colpa grave, dal momento che aveva proposto opposizione nei confronti di alcuni avvisi di addebito tramite un ricorso redatto con il supporto dell’intelligenza artificiale, costituito da un coacervo di citazioni normative e giurisprudenziali astratte, prive di ordine logico e in larga parte inconferenti.
Per questi motivi, i giudici di Torino non solo hanno rigettato l’appello, ma hanno anche condannato la ricorrente alle spese di giudizio e al risarcimento danni per lite temeraria, ex art. 94 c.p.c.
Appare utile ricordare che nella Gazzetta Ufficiale n. 223 del 25 settembre scorso è stata pubblicata la legge n. 132 del 23 settembre 2025, avente per oggetto “Disposizioni e deleghe al Governo in materia di intelligenza artificiale”.
Una disposizione legislativa che sancisce i principi fondamentali ai quali l’uso dell’intelligenza artificiale deve necessariamente conformarsi, in sintonia con la normativa comunitaria (Regolamento UE 2024/1689 – AI Act).
Tra i principi fondamentali, sparsi fra i 28 articoli della legge, figurano quelli riguardanti la trasparenza, la sicurezza, la protezione dei dati personali, la riservatezza, la necessità di evitare discriminazioni di ogni genere, la tutela dei soggetti disabili, ma anche la garanzia dello svolgimento democratico della vita istituzionale e politica.
Come è noto, anche il fisco si avvale dell’IA, come dichiarato nella legge sulla riforma tributaria n. 111 del 9 agosto 2023, quando il legislatore, dopo aver affermato all’articolo 2, comma 1, lettera b), la necessità di “prevenire, contrastare e ridurre l’evasione e l’elusione fiscale”, ha previsto all’articolo 3 la piena utilizzazione dei dati dell’anagrafe tributaria, il potenziamento dell’analisi del rischio, il ricorso alle tecnologie digitali e alle soluzioni di intelligenza artificiale, nel rispetto della disciplina europea sulla tutela dei dati personali, nonché il rafforzamento del regime di adempimento collaborativo e l’introduzione di strumenti volti a favorire la collaborazione tra amministrazione finanziaria e contribuenti.
Lo afferma anche l’articolo 17 della stessa legge 111/2023, che prevede la necessità di “potenziare l’utilizzo di tecnologie digitali, anche con l’impiego di sistemi di intelligenza artificiale” al fine di garantire la disponibilità e il tempestivo utilizzo delle informazioni rilevanti.
In effetti, l’intelligenza artificiale è ormai entrata a pieno titolo sia nella fase dell’accertamento tributario sia in quella del contenzioso tributario.
Qualunque errore, tuttavia, può essere molto pericoloso.
Al riguardo, Carbone, direttore dell’Agenzia delle Entrate, con una sua direttiva ha richiamato l’attenzione degli uffici sulla necessità di verificare sempre il prodotto dell’intelligenza artificiale, che potrebbe essere affetto da errori a causa della natura statistica e non deterministica degli algoritmi. Ha impartito rigorose disposizioni, imponendo la verifica e la supervisione umana in qualunque fase della procedura, vietando l’utilizzo di software di IA non validati e l’emanazione di atti amministrativi senza integrazione con i sistemi informatici dell’Agenzia.
L’IA, inoltre, anche quando validata ed integrata nei sistemi informatici del fisco, è consentita esclusivamente come strumento di supporto, ma non può essere finalizzata alla produzione diretta di atti amministrativi.
Eppure l’errore è venuto fuori.
Lo ha scoperto l’UNCAT – Unione Nazionale degli Avvocati Tributaristi, che con un comunicato del 17 dicembre scorso ha dato notizia di un caso di “allucinazioni da IA” in un atto di accertamento dell’Agenzia delle Entrate, viziato – secondo l’associazione – da evidenti allucinazioni informatiche.
Nel comunicato, nel quale per motivi di privacy e segreto professionale non sono stati forniti ulteriori dettagli, è stata evidenziata la circostanza che nella motivazione di alcuni atti di accertamento sarebbero state richiamate sentenze tributarie inesistenti e addirittura circolari mai emanate dalla stessa Agenzia. È stato inoltre chiesto se tali errori siano frutto di sistemi progettati internamente all’amministrazione o di utilizzi personali dei funzionari.
L’Agenzia delle Entrate, con grande tempestività, ha preso atto della segnalazione e, con un proprio comunicato, ha precisato che i fatti risultano limitati a un unico atto di accertamento, rassicurando di aver avviato verifiche presso tutte le strutture territoriali sul rispetto delle policy interne sull’uso dell’IA adottate il 23 ottobre scorso.
Ha ribadito che i sistemi di intelligenza artificiale non possono essere impiegati per la produzione diretta di atti amministrativi né nella gestione delle controversie e ha ricordato che, in caso di violazioni, anche riferite a un singolo atto, saranno adottati i dovuti provvedimenti disciplinari.