Dal 2006 il tuo sito imparziale su Lavoro, Fisco, Investimenti, Pensioni, Aziende ed Auto

Cosa c' di vero nel grande fratello basato su IA e algoritmi super potenti contro evasione fiscale?

di Marianna Quatraro pubblicato il
AI contro evasione fiscale

L'uso di IA e algoritmi nel contrasto all'evasione fiscale solleva interrogativi su privacy, diritti dei cittadini e limiti tecnologici. Cme funziona davvero il Grande Fratello fiscale in Italia.

L'immaginario collettivo parla spesso di un “controllo totale” da parte delle autorità fiscali, alimentando il mito di un Grande Fratello digitale capace di osservare ogni movimento dei contribuenti. Tuttavia, recenti chiarimenti da parte dell'Agenzia delle Entrate hanno smentito l'esistenza di sistemi automatizzati onnipotenti e fatto presente che l'utilizzo dell'intelligenza artificiale (IA) non mira a invadere la privacy dei cittadini né a compromettere i loro diritti.

Le tecnologie adottate nelle attività di analisi e contrasto all'evasione fiscale sono sempre subordinate al rispetto delle normative vigenti, in particolare quelle relative alla tutela dei dati personali e alla trasparenza. Il vero scenario è ben distante dalle narrazioni fantascientifiche, e riflette invece una realtà dove efficienza operativa e garanzie per i cittadini restano punti fermi. In pratica, come vediamo in questo articolo, c'è poco o nulla di vero nel grande fratello basato su IA e algoritmi super potenti contro evasione fiscale

Quali tecnologie digitali usa il Fisco italiano contro l'evasione fiscale?

Nell'ultimo decennio il sistema tributario italiano si è trasformato grazie alla digitalizzazione dei processi e all'informatizzazione delle banche dati. Oggi il patrimonio informativo dell'Amministrazione finanziaria include enormi archivi, dall'Anagrafe tributaria ai dati sulla fatturazione elettronica, dai rapporti finanziari agli atti relativi a successioni e trasferimenti immobiliari.

L'Agenzia delle Entrate utilizza algoritmi sofisticati, allenati su questi dati, per intercettare situazioni potenzialmente rischiose tramite:

  • Machine learning, per riconoscere pattern ricorrenti nelle violazioni fiscali;
  • Text mining, atto a estrarre valore informativo da documenti non strutturati;
  • Network analysis, che consente di analizzare i legami tra diversi soggetti coinvolti nelle transazioni.
Queste metodologie permettono non tanto di individuare in automatico chi evade, quanto di evidenziare anomalie e incongruenze che meritano attenzione. Uno degli esempi più avanzati riguarda l'incrocio tra informazioni finanziarie e dati digitali, strumento che può segnalare comportamenti difformi rispetto a quanto dichiarato.

Non è la macchina a sancire la violazione, ma l'attività umana di verifica a intervenire prima di ogni decisione formale. In linea con la normativa europea e nazionale, ogni tecnologia utilizzata deve garantire legalità, trasparenza e rispetto del contraddittorio.

La trasparenza e i limiti degli algoritmi fiscali: niente IA generativa, nessun automatismo decisionale

Le recenti precisazioni fornite dal Direttore dell'Agenzia delle Entrate hanno fissato un punto fermo: non viene utilizzata intelligenza artificiale generativa né sistemi decisionali automatici. Le scelte relative ai controlli vengono sempre prese alla luce delle norme vigenti e non sono demandate a macchine o software autonomi.

Gli algoritmi implementati sono progettati secondo principi di:

  • Spiegabilità: i risultati devono essere comprensibili e giustificabili;
  • Non-discriminazione: prevenendo errori sistemici e iniquità nei confronti dei singoli cittadini;
  • Trasparenza: ogni attività investigativa deve essere ricostruibile e verificabile.
L'idea che esista un pulsante attraverso cui ottenere una lista automatica di presunti evasori fiscali è stata definita priva di fondamento e più vicina alla fantascienza che alla realtà delle cose. In tutte le fasi di analisi e selezione, l'apporto umano è essenziale: l'intelligenza artificiale può filtrare, aggregare e segnalare dati, ma non determina da sola esiti di controlli o invii di avvisi di accertamento.

La progettazione degli strumenti digitali del Fisco rispetta quanto disposto dal Regolamento UE 2016/679 (GDPR), in particolare l'articolo 22, che esclude decisioni con effetti giuridici basate unicamente su processi automatizzati. La salvaguardia di questi principi serve a evitare automatismi che potrebbero minare fiducia e correttezza nell'azione amministrativa. L'attenzione alla trasparenza rimane costante, così come la necessità di un adeguato contraddittorio preventivo e informato.

Come funziona la profilazione del rischio e il ruolo dei dati personali

Alla base della strategia antifrode italiana troviamo un sistema informatizzato di profilazione che attribuisce a ogni contribuente un determinato livello di rischio. Si tratta di un processo che utilizza grandi quantità di dati per identificare anomalie che potrebbero indicare comportamenti evasivi.

Il procedimento può essere riassunto nelle seguenti fasi:

  • Raccolta e incrocio dati: l'integrazione tra banche dati pubbliche consente di costruire un quadro completo sulla posizione finanziaria e patrimoniale dei soggetti;
  • Analisi comportamentale: attraverso reti di correlazione e tecniche predittive vengono messi in luce scostamenti tra dichiarazioni ufficiali e comportamenti osservati online;
  • Assegnazione dei rischi: ogni soggetto viene associato a un determinato punteggio di rischio, che rappresenta la probabilità di comportamenti non conformi alle norme tributarie.
Un aspetto emerso nella prassi recente è quello relativo all'uso di dati digitali: foto, commenti e manifestazioni di ricchezza pubblicate online possono integrare il quadro valutativo del Fisco. In caso di scostamenti rilevati tra dichiarazioni e segnali digitali, l'algoritmo genera un alert che viene poi affidato all'analisi umana:

Tipologia dato

Finalità

Movimentazioni bancarie

Verifica coerenza tra entrate/uscite e dichiarazioni fiscali

Fatture elettroniche

Riscontro dei valori dichiarati e verifica delle relazioni commerciali

Contenuti social

Segnalazione di lussi e incongruenze rispetto ai redditi dichiarati

Anche se l'uso dell'IA resta confinato alla fase di selezione e segnalazione, si sollevano questioni giuridiche rilevanti su accessibilità, trasparenza e diritto di difesa. Di fronte a un sistema fortemente informatizzato, è fondamentale garantire la possibilità di contestazione e revisione delle valutazioni algoritmiche.

Diritti dei cittadini, privacy e contraddittorio: la tutela nel sistema fiscale digitale

Nell'architettura digitale del sistema tributario italiano, la tutela dei diritti civili assume un valore imprescindibile. La normativa, con il pieno recepimento del GDPR, stabilisce parametri stringenti su trattamento, conservazione e utilizzo dei dati personali. Ogni attività di profilazione a fini fiscali deve rispettare i principi stabiliti dagli articoli 5, 13 e 22 del Regolamento UE 2016/679.

L'utilizzo di strumenti tecnologici e algoritmici per il contrasto all'evasione è sempre accompagnato dalla garanzia effettiva del contraddittorio. Nessun provvedimento di accertamento viene adottato sulla sola base di valutazioni automatizzate: il ruolo dell'operatore umano resta centrale nelle decisioni e nel processo di audizione del contribuente.

Le principali tutele per i cittadini nell'ambito della fiscalità digitale sono:

  • Accesso agli atti, con la possibilità di conoscere le motivazioni alla base delle presunte anomalie;
  • Diritto di rettifica e integrazione delle informazioni considerate nei profili di rischio;
  • Possibilità di ricorso e difesa, tramite modalità telematiche sempre più efficienti e trasparenti.
Nonostante le avanzate capacità di incrocio dati, il sistema non sottrae spazio ai diritti del cittadino. Gli algoritmi vengono progettati per garantire la non discriminazione e un elevato grado di explainability, così da evitare errori e arbitrarietà. Dove si individuano criticità, l'intervento del Garante per la protezione dei dati personali e dei giudici competenti assicura un sistema di controllo efficace e orientato alla tutela del singolo.

Le preoccupazioni sulla presunzione d'innocenza e i rischi della profilazione automatica

Se da un lato la profilazione digitale consente una più efficace individuazione dei flussi sospetti e dei casi anomali, dall'altro genera interrogativi giuridici e sociali di rilievo. Emergenze come l'inversione dell'onere probatorio e la possibilità che dati digitali poco contestualizzati possano incidere sulla posizione del contribuente richiedono particolare attenzione.

Sussistono rischi legati alla debolezza difensiva del cittadino. In particolare, quando un sistema algoritmico attribuisce un profilo di rischio elevato, chi viene selezionato può essere chiamato a giustificare eventuali disparità tra il tenore di vita mostrato online e i redditi dichiarati. Questa situazione può comportare il pericolo di presunzione di colpevolezza, laddove l'onere della prova si sposta, di fatto, su chi si trova sotto osservazione, costretto a giustificare circostanze che spesso sono estranee all'effettivo possesso di beni o disponibilità di denaro.

Secondo l'articolo 24 della Costituzione italiana, ogni procedimento deve garantire la possibilità di difendersi in maniera effettiva: ciò implica che il Fisco non deve limitarsi a convalidare decisioni già prese dall'algoritmo, ma valutare con attenzione e trasparenza i casi presentati.

Va segnalato come la profilazione digitale presenti margini di errore, soprattutto quando si basa su criteri poco comunicati o su indicatori non sufficientemente calibrati. L'attivazione tempestiva di una difesa tecnica, così come suggerito dagli esperti, costituisce una leva indispensabile per opporsi a possibili errori e tutelare la posizione del contribuente già dalle prime fasi del procedimento.



Leggi anche