Dal 2006 il tuo sito imparziale su Lavoro, Fisco, Investimenti, Pensioni, Aziende ed Auto

Rischi errori per uso Intelligenza artificiale in atti e controlli fiscali: Agenzia delle Entrate pronta a sanzionare uffici

di Marianna Quatraro pubblicato il
errori controlli fiscali causati da Inte

L'uso dell'intelligenza artificiale negli atti e nei controlli fiscali solleva nuove sfide: dai rischi di errore alle responsabilità e sanzioni previste dall'Agenzia delle Entrate, fino alla gestione sicura dei dati.

L’utilizzo dell’intelligenza artificiale nei processi amministrativi e nei controlli fiscali sta introducendo sfide nuove e rilevanti per le amministrazioni e per i contribuenti. L’adozione di questi strumenti automatizzati, mentre apre la strada a una maggiore efficienza e rapidità nelle verifiche, porta con sé anche una serie di rischi legati a possibili errori algoritmici e malinterpretazioni che possono incidere direttamente sulle risultanze degli atti prodotti dagli uffici fiscali. In particolare, è stata recentemente segnalata la possibilità di "allucinazioni" delle tecnologie AI applicate agli schemi di atti prodotti dall’Amministrazione finanziaria, fenomeno che potrebbe provocare l’emissione di documenti basati su dati non corretti o su deduzioni erronee dei modelli automatizzati.

Il dibattito tra esperti del settore fiscale e rappresentanti dei contribuenti rimarca la necessità di una vigilanza rafforzata sull’introduzione di questi sistemi. L’Agenzia delle Entrate, consapevole dei rischi paventati, ha avviato un percorso di analisi e monitoraggio interno, volto a limitare le eventuali conseguenze di possibili sviste occorse durante la fase di produzione di atti tramite l’IA. Le implicazioni di tali eventi vanno oltre l’errore amministrativo, coinvolgendo aspetti di trasparenza, tutela dei diritti del contribuente e salvaguardia dell’integrità dei dati processati attraverso nuove tecnologie.

Policy di utilizzo dell’IA, responsabilità e sanzioni dell’Agenzia delle Entrate

L’introduzione dell’intelligenza artificiale negli archivi e nei processi dell’Agenzia delle Entrate ha richiesto lo sviluppo di policy interne rigorose e la definizione di responsabilità puntuali in capo agli operatori. L’Ente ha istituito regole dettagliate sull’impiego di sistemi automatizzati e precise linee guida che regolano la produzione degli atti, con la finalità di minimizzare i rischi legati a potenziali errori, come segnalato dagli avvocati tributaristi specializzati in materia.

È significativo rilevare come, in caso di presunte anomalie o violazioni delle regole, l’approccio della Direzione Generale dell’Amministrazione sia quello della massima trasparenza, con l’apertura di approfondimenti a livello territoriale per accertare l’esistenza di irregolarità. Laddove venisse riscontrato un utilizzo distorto, o comunque non conforme alle policy, dei sistemi di intelligenza artificiale, l’Agenzia ha predisposto sanzioni disciplinari a carico dei responsabili degli uffici coinvolti. Tali provvedimenti costituiscono una garanzia ulteriore per i contribuenti, volto ad assicurare che la responsabilità nelle procedure rimanga saldamente in capo agli operatori umani anche in presenza di sistemi automatizzati.

Uno degli aspetti di maggiore rilievo è la definizione delle responsabilità individuali e collettive. Il personale di ogni struttura territoriale viene chiamato a rispettare in maniera scrupolosa la normativa di riferimento e le regole interne imposte, con particolare attenzione alle fasi decisionali automatizzate che potrebbero incidere sui diritti dei cittadini. In questo quadro, il rispetto delle direttive interne viene monitorato in modo costante attraverso controlli a campione e sistemi di audit digitale, favorendo la possibilità di intervento tempestivo ove si ravvisino incongruenze nella produzione degli atti mediante l’IA.

La scelta dell’Agenzia di promuovere piani di formazione specifica destinati ai funzionari incaricati, si inserisce in una visione più ampia di responsabilità, che punta a rafforzare la consapevolezza sulle possibili derive dell’uso non accorto delle tecnologie. La promozione di una cultura della responsabilità è considerata fondamentale anche alla luce dell’art. 1, comma 682, Legge n. 160/2019, che disciplina l’utilizzo di dati e tecnologie evolute per le analisi del rischio fiscale.

Si segnala, inoltre, come la policy interna miri ad allinearsi ai più stringenti requisiti normativi e alle best practices internazionali, integrando valutazioni d’impatto e aggiornamenti costanti dei protocolli operativi, in un naturale percorso di miglioramento continuo. Questo approccio garantisce un elevato livello di affidabilità delle procedure e contribuisce a consolidare l’immagine dell’Agenzia delle Entrate come ente autorevole e attento al rispetto delle regole di governance dell’innovazione digitale nel settore pubblico.

Procedure di protezione dei dati e strumenti di controllo nei processi automatizzati fiscali

Il tema della protezione dei dati personali dei contribuenti assume un rilievo centrale nell’adozione di tecnologie AI da parte dell’Agenzia delle Entrate. Nel corso delle recenti audizioni parlamentari, la Direzione dell’Agenzia ha illustrato le misure già adottate e quelle in fase di pianificazione, volte a tutelare i dati archiviati nell’Anagrafe tributaria e a scongiurare accessi non autorizzati.

  • Sono stati implementati avanzati sistemi di segregazione organizzativa, riducendo il numero di soggetti autorizzati all’utilizzo dell’Archivio dei rapporti finanziari e della banca dati fattura integrati. Un solo nucleo organizzativo, previa autorizzazione, può svolgere trattamenti e analisi di rischio fiscale.
  • Viene applicata la pseudonimizzazione dei dati: le informazioni identificative dei contribuenti vengono sostituite da codici temporanei gestiti da un partner tecnologico esterno (Sogei), senza che i funzionari dell’Agenzia abbiano accesso diretto alla corrispondenza tra codici e dati reali.
  • Dal marzo 2025, è stato introdotto l’obbligo di motivare ogni accesso alle banche dati tramite le applicazioni SERPICO e DALI, con blocco dell’operatività in assenza di giustificazione adeguata.
  • Il tracciamento puntuale degli accessi (data, ora, credenziale, identity provider, operazione effettuata) costituisce un ulteriore presidio di sicurezza, consentendo al contribuente un controllo effettivo sulla propria posizione attraverso avvisi dedicati.
Queste procedure si estendono anche all’analisi dei dati relativi alle fatture elettroniche, dove restrizioni precise disciplinano l’utilizzo e il trattamento delle informazioni qualitative, nel rispetto del Regolamento Privacy e delle indicazioni del Garante per la protezione dei dati personali (Provvedimento n. 454/2021). Soltanto le fatture tra operatori economici possono essere oggetto di analisi automatizzata, a esclusione delle informazioni provenienti da operatori del settore legale.

Un aspetto di particolare rilievo è rappresentato dallo strumento di controllo messo a disposizione dei cittadini tramite piattaforme telematiche, che permette di individuare rapidamente eventuali accessi anomali ai dati fiscali personali. Questa modalità di vigilanza passiva incrementa il livello di consapevolezza e consente di attivare tempestivamente le procedure di segnalazione in caso di sospetto utilizzo improprio dei dati.

Tecnologia Misura di sicurezza
Segregazione organizzativa Autorizzazione limitata all’unità competente
Pseudonimizzazione Sostituzione dati identificativi con codici temporanei
Tracciamento accessi Registro dettagliato di tutte le operazioni
Alert utente Avvisi in caso di accessi sospetti
Motivazione obbligatoria accessi Accesso permesso solo previa giustificazione

Complessivamente, il quadro normativo e operativo evidenzia un impegno costante dell’Ente nel garantire sicurezza, riservatezza e trasparenza nell’utilizzo dell’IA nelle funzioni fiscali. Questo rafforzamento delle procedure, in coerenza con quanto richiesto dalle autorità di vigilanza e dagli standard europei, tutela sia i diritti dei contribuenti, sia l’affidabilità del sistema fiscale nazionale.



Leggi anche