L'intelligenza artificiale sta ridefinendo il confine tra innovazione e illecito: dal nuovo reato di illecita diffusione di contenuti alle responsabilitŕ aziendali e alle sanzioni dell'AI Act. Profili penali e prospettive in Italia.
Negli ultimi anni, la legislazione ha avviato un percorso di regolamentazione stringente per tutelare i cittadini da rischi quali frodi, manipolazioni e violazioni di diritti connessi all'impiego delle nuove tecnologie. L'entrata in vigore della Legge 132/2025 rappresenta il punto di svolta in questo scenario, codificando una disciplina organica che attribuisce rilievo penale a condotte prima non espressamente previste dal codice.
La materia dei reati per chi usa Intelligenza Artificiale si inserisce all'interno di una crescente attenzione anche a livello europeo, come dimostrato dal Regolamento UE 2024/1689 (AI Act). L'impiego dell'IA può determinare la commissione di illeciti di diversa natura, comportando rischi non solo per le persone fisiche ma anche per organizzazioni, mercati e pubbliche amministrazioni. Il legislatore nazionale ha risposto introducendo nuovi reati, circostanze aggravanti dedicate e obblighi di responsabilità per imprese e professionisti. Questo nuovo scenario impone una lettura aggiornata della normativa penale, consapevole delle insidie legate alla diffusione di strumenti che possono essere utilizzati come “mezzo insidioso” o per alterare la percezione della realtà pubblica e privata.
I reati connessi all'utilizzo di sistemi automatizzati comprendono tutte le condotte illecite che sfruttano capacità di calcolo, apprendimento e manipolazione esclusive dell'intelligenza artificiale. Il legislatore, facendo riferimento all'AI Act europeo, definisce tali sistemi come automatismi capaci di operare con vario grado di autonomia generando output che incidono sia su ambienti digitali che fisici. Le categorie principali sono:
La normativa configura la punibilità nei casi in cui l'IA abbia rappresentato un elemento decisivo per l'efficacia dell'illecito, introducendo aggravamenti della pena e nuove fattispecie autonome, con attenzione agli impatti in ambito politico, sociale ed economico.
Con l'introduzione dell'articolo 612-quater del Codice penale, il legislatore recepisce la necessità di disciplinare una delle derive più gravi nel panorama delle manipolazioni digitali: la diffusione non autorizzata di contenuti audiovisivi creati o modificati tramite intelligenza artificiale. Le cndotte illecite punite sono:
In linea con le previsioni AI Act, la legge prevede anche specifici obblighi tecnici volti a favorire la riconoscibilità dei contenuti generati o modificati artificialmente, per esempio mediante filigrane o marchi sonori, fermo restando il rispetto delle libertà artistiche e della satira.
La disciplina italiana prevede ora una circostanza aggravante comune ai sensi dell'art. 61, n. 11-decies c.p., applicabile a qualsiasi reato commesso tramite strumenti automatizzati, nel caso in cui questi rappresentino un mezzo particolarmente insidioso, ostacolino la difesa della vittima o aggravino gli effetti dell'illecito.
Questa aggravante consente l'aumento della pena sino a un terzo rispetto alla cornice base prevista per il reato originario:
Tipologie di aggravamento |
Reati interessati |
Applicazione generale (mezzo insidioso, difficoltà di difesa, impatto accresciuto) |
Tutti i reati del codice penale e leggi speciali |
Aggravante speciale per reati politici |
Attentati contro i diritti politici del cittadino (art. 294 c.p.) |
Aggravanti per reati economico-finanziari |
Aggiotaggio societario e bancario (art. 2637 c.c.), manipolazione del mercato (art. 185 TUF) |
Nei casi in cui il sistema automatizzato sia stato usato per ingannare la volontà dell'elettore o alterare processi politici fondamentali, la pena viene aumentata significativamente, raggiungendo una forbice tra due e sei anni di reclusione. Analoghi aggravamenti si applicano a reati di natura economica connotati da una maggiore insidiosità e potenziale dannoso.
L'impiego di tecnologie automatizzate incide anche nell'ambito dei reati economico-finanziari nonché nelle condotte illecite contro la proprietà intellettuale.
Il Regolamento europeo AI Act ha introdotto il divieto assoluto per specifiche applicazioni dell'intelligenza artificiale qualificate come rischio inaccettabile, imponendo sanzioni molto elevate per chi viola le disposizioni. Sono vietati sistemi che manipolano le persone sfruttando vulnerabilità individuali, praticano il social scoring, analizzano le emozioni in contesti lavorativi o educativi, effettuano predizione di reati sulla base di caratteristiche personali, raccolgono dati biometrici senza consenso, effettuano riconoscimento facciale di massa e discriminano per tratti sensibili. Le pratiche proibite sono: