Dal 2006 il tuo sito imparziale su Lavoro, Fisco, Investimenti, Pensioni, Aziende ed Auto

Quali sono i reati che si possono fare con l'intelligenza artificiale riconosciuti in Italia e relative sanzioni o condanne

di Marcello Tansini pubblicato il
Reati intelligenza artificiale

L'intelligenza artificiale sta ridefinendo il confine tra innovazione e illecito: dal nuovo reato di illecita diffusione di contenuti alle responsabilitŕ aziendali e alle sanzioni dell'AI Act. Profili penali e prospettive in Italia.

Negli ultimi anni, la legislazione ha avviato un percorso di regolamentazione stringente per tutelare i cittadini da rischi quali frodi, manipolazioni e violazioni di diritti connessi all'impiego delle nuove tecnologie. L'entrata in vigore della Legge 132/2025 rappresenta il punto di svolta in questo scenario, codificando una disciplina organica che attribuisce rilievo penale a condotte prima non espressamente previste dal codice.

La materia dei reati per chi usa Intelligenza Artificiale si inserisce all'interno di una crescente attenzione anche a livello europeo, come dimostrato dal Regolamento UE 2024/1689 (AI Act). L'impiego dell'IA può determinare la commissione di illeciti di diversa natura, comportando rischi non solo per le persone fisiche ma anche per organizzazioni, mercati e pubbliche amministrazioni. Il legislatore nazionale ha risposto introducendo nuovi reati, circostanze aggravanti dedicate e obblighi di responsabilità per imprese e professionisti. Questo nuovo scenario impone una lettura aggiornata della normativa penale, consapevole delle insidie legate alla diffusione di strumenti che possono essere utilizzati come “mezzo insidioso” o per alterare la percezione della realtà pubblica e privata.

Definizione e quadro generale dei reati commessi con l'IA

I reati connessi all'utilizzo di sistemi automatizzati comprendono tutte le condotte illecite che sfruttano capacità di calcolo, apprendimento e manipolazione esclusive dell'intelligenza artificiale. Il legislatore, facendo riferimento all'AI Act europeo, definisce tali sistemi come automatismi capaci di operare con vario grado di autonomia generando output che incidono sia su ambienti digitali che fisici. Le categorie principali sono:

  • Manipolazione di contenuti digitali: creazione e diffusione di deepfake, alterazione di immagini, video o audio
  • Manipolazione dei mercati finanziari e dei dati economici: esecuzione di operazioni di trading automatizzato, produzione di bilanci falsificati
  • Violazioni della proprietà intellettuale: text e data mining abusivo, estrazione non autorizzata di dati protetti
  • Plagio digitale e scraping illegale: generazione o copia di opere creative senza autorizzazione
L'articolazione dei reati per chi usa Intelligenza Artificiale si basa sull'individuazione di tre pilastri concettuali: il danno cagionato alla persona, alla collettività o alle istituzioni; il mezzo tecnologico avanzato utilizzato; la capacità del sistema di sorprendere la difesa della vittima. Il quadro comprende sia illeciti legati a intenti dolosi (come la truffa o la manipolazione) sia condotte colpose, in particolare in ambito professionale o industriale (ad esempio la mancata adozione di controlli di sicurezza).

La normativa configura la punibilità nei casi in cui l'IA abbia rappresentato un elemento decisivo per l'efficacia dell'illecito, introducendo aggravamenti della pena e nuove fattispecie autonome, con attenzione agli impatti in ambito politico, sociale ed economico.

Il nuovo reato di illecita diffusione di contenuti generati o alterati con sistemi di IA (art. 612-quater c.p.)

Con l'introduzione dell'articolo 612-quater del Codice penale, il legislatore recepisce la necessità di disciplinare una delle derive più gravi nel panorama delle manipolazioni digitali: la diffusione non autorizzata di contenuti audiovisivi creati o modificati tramite intelligenza artificiale. Le cndotte illecite punite sono:

  • Cessione, pubblicazione o diffusione senza consenso di immagini, video o voci contraffatte o alterate da sistemi automatici
  • Produzione e circolazione di contenuti in grado di ingannare sulla genuinità, con l'obiettivo o l'effetto di arrecare un danno ingiusto alla persona interessata
Il reato è punito con la reclusione da uno a cinque anni e si persegue, di regola, a querela della persona offesa. Tuttavia l'azione penale è d'ufficio in specifiche circostanze:
  • quando il fatto è connesso a un altro delitto che impone l'intervento pubblico
  • se la vittima, per età o infermità, non è in grado di tutelarsi autonomamente
  • nei casi in cui il soggetto colpito sia una pubblica autorità a causa delle sue funzioni
L'elemento centrale della punibilità è la capacità del contenuto di trarre in inganno la collettività circa la sua autenticità e il danno effettivo subito dal soggetto ritratto o citato. La norma trova una collocazione strategica tra i reati contro la persona e la libertà morale, ribadendo la necessità di difendere l'autodeterminazione e la reputazione digitale di ciascun individuo in un'epoca di profonda trasformazione dei paradigmi mediali.

In linea con le previsioni AI Act, la legge prevede anche specifici obblighi tecnici volti a favorire la riconoscibilità dei contenuti generati o modificati artificialmente, per esempio mediante filigrane o marchi sonori, fermo restando il rispetto delle libertà artistiche e della satira.

Le circostanze aggravanti comuni e speciali: quando l'uso dell'IA aumenta la gravità delle pene

La disciplina italiana prevede ora una circostanza aggravante comune ai sensi dell'art. 61, n. 11-decies c.p., applicabile a qualsiasi reato commesso tramite strumenti automatizzati, nel caso in cui questi rappresentino un mezzo particolarmente insidioso, ostacolino la difesa della vittima o aggravino gli effetti dell'illecito.

Questa aggravante consente l'aumento della pena sino a un terzo rispetto alla cornice base prevista per il reato originario:

Tipologie di aggravamento

Reati interessati

Applicazione generale (mezzo insidioso, difficoltà di difesa, impatto accresciuto)

Tutti i reati del codice penale e leggi speciali

Aggravante speciale per reati politici

Attentati contro i diritti politici del cittadino (art. 294 c.p.)

Aggravanti per reati economico-finanziari

Aggiotaggio societario e bancario (art. 2637 c.c.), manipolazione del mercato (art. 185 TUF)

Nei casi in cui il sistema automatizzato sia stato usato per ingannare la volontà dell'elettore o alterare processi politici fondamentali, la pena viene aumentata significativamente, raggiungendo una forbice tra due e sei anni di reclusione. Analoghi aggravamenti si applicano a reati di natura economica connotati da una maggiore insidiosità e potenziale dannoso.

Reati economici, finanziari e violazione del diritto d'autore con l'utilizzo dell'IA: aggiotaggio, manipolazione del mercato e plagio digitale

L'impiego di tecnologie automatizzate incide anche nell'ambito dei reati economico-finanziari nonché nelle condotte illecite contro la proprietà intellettuale.

  • Aggiotaggio societario, bancario e manipolazione del mercato:
    • L'apparato sanzionatorio prevede, in caso di utilizzo illecito dei sistemi di IA, la reclusione da due a sette anni e multe fino a sei milioni di euro.
    • La legge distingue tra manipolazione effettuata su mercati regolati (art. 185 TUF) e fuori dai mercati regolati (art. 2637 c.c.).
  • Violazione del copyright tramite text e data mining non autorizzati:
    • Sanzionate le attività di estrazione o riproduzione di testi e opere protette tramite IA senza verificare la legittimità dell'accesso o il rispetto delle clausole di opt-out dei titolari dei diritti.
    • Il testo normativo recepisce la disciplina degli art. 70-ter e 70-quater della Legge 633/1941.
Le imprese che sviluppano, implementano o sfruttano sistemi automatizzati devono quindi considerare i compliance risk connessi all'accesso ai dati protetti e alle operazioni finanziarie automatizzate. Le tecniche di enforcement vanno dall'audit algoritmico alla tracciabilità delle decisioni automatizzate, fino alla programmazione di registri centralizzati per la gestione delle preferenze dei titolari dei dati.

Vietato dalla legge: i casi di rischio inaccettabile secondo l'AI Act e le relative sanzioni europee ed italiane

Il Regolamento europeo AI Act ha introdotto il divieto assoluto per specifiche applicazioni dell'intelligenza artificiale qualificate come rischio inaccettabile, imponendo sanzioni molto elevate per chi viola le disposizioni. Sono vietati sistemi che manipolano le persone sfruttando vulnerabilità individuali, praticano il social scoring, analizzano le emozioni in contesti lavorativi o educativi, effettuano predizione di reati sulla base di caratteristiche personali, raccolgono dati biometrici senza consenso, effettuano riconoscimento facciale di massa e discriminano per tratti sensibili. Le pratiche proibite sono:

  • Manipolazione subliminale o ingannevole
  • Social scoring (valutazione generale automatica della persona)
  • Predizione di reati tramite profilazione
  • Raccolta di immagini biometriche su larga scala senza base legale
  • Categorizzazione biometrica di dati sensibili
  • Riconoscimento facciale in tempo reale in spazi pubblici
Le sanzioni possono arrivare fino a 35 milioni di euro o al 7% del fatturato mondiale dell'impresa trasgressore. In Italia la vigilanza è affidata all'AgID e all'Agenzia per la Cybersicurezza Nazionale.