Dalla approvazione della legge sull'Intelligenza Artificiale emergono nuove regole e limiti per aziende, professionisti e cittadini, ridefinendo gli ambiti d'uso tra innovazione, tutela dei diritti, responsabilit e futuro del digitale
L'Italia si distingue nel panorama europeo come primo Stato membro ad approvare una normativa nazionale per lo sviluppo, la regolamentazione e l'adozione dei sistemi di intelligenza artificiale, in linea con il regolamento europeo AI Act. Questo testo legislativo rappresenta una risposta articolata alle nuove sfide poste dall'IA, configurandosi come una cornice organizzativa e di indirizzo volta a integrare le disposizioni comunitarie e a fornire maggiore certezza giuridica agli operatori pubblici e privati.
Tra le sue caratteristiche emergono una visione antropocentrica e un approccio settoriale, che si traducono in disposizioni orientate al rispetto dei valori costituzionali, alla promozione dell'innovazione e alla tutela dei diritti fondamentali. L'iter di approvazione, che ha coinvolto sia il Parlamento sia una vasta platea di esperti del settore, si è contraddistinto per una peculiare attenzione agli aspetti di trasparenza, sicurezza e responsabilità sociale, oltre che per il dibattito sulle modalità di attuazione concreta dei principi sanciti nella legge.
La disciplina italiana in materia di intelligenza artificiale poggia su alcuni principi cardine che riprendono e ampliano quelli contenuti nell'AI Act europeo. Tra questi occupano una posizione centrale: la centralità della persona e la supervisione umana nei processi decisionali automatizzati, la trasparenza delle procedure algoritmiche, la proporzionalità degli interventi rispetto agli impatti prodotti, il rispetto della privacy individuale e collettiva e la promozione della sicurezza in ogni fase del ciclo di vita dei sistemi di IA.
Ulteriore attenzione è posta sulla non discriminazione e la parità di genere, sull'accessibilità e sulla sostenibilità, sia ambientale che sociale. L'obiettivo complessivo della normativa è duplice: da una parte, indirizzare lo sviluppo dell'IA in modo da massimizzare le opportunità economiche, sociali e scientifiche offerte da questa tecnologia; dall'altra, offrire strumenti di tutela e controllo contro possibili abusi, rischi di esclusione, interferenze illecite e minacce ai diritti fondamentali. La legge attribuisce inoltre grande rilevanza al principio di accountability, richiedendo la tracciabilità dei processi e la responsabilità giuridica di soggetti coinvolti nello sviluppo e nell'utilizzo degli strumenti di intelligenza artificiale.
Il legislatore nazionale ha definito un sistema di governance multilivello, che vede la Presidenza del Consiglio dei ministri e il Dipartimento per la trasformazione digitale al centro della definizione della strategia nazionale sull'intelligenza artificiale. Tale strategia è aggiornata su base biennale e monitora costantemente l'impatto della tecnologia nei diversi ambiti applicativi. Fanno parte di questo quadro istituzionale due soggetti principali: l'Agenzia per la Cybersicurezza Nazionale (ACN), preposta alle funzioni di vigilanza e controllo sui sistemi, e l'Agenzia per l'Italia Digitale (AgID), cui compete la gestione delle notifiche, l'accreditamento dei soggetti attuatori e la promozione dei casi d'uso ritenuti sicuri e affidabili.
All'interno del comitato di coordinamento istituito presso la Presidenza del Consiglio, siedono inoltre rappresentanti di ministeri chiave e autorità indipendenti come il Garante Privacy e AGCOM. Questo assetto garantisce un governo flessibile e interdisciplinare, assicurando il coordinamento tra politiche di innovazione tecnologica, sicurezza informatica e tutela dei diritti civili. La legge prevede infine una funzione di reporting verso il Parlamento attraverso relazioni annuali, a testimonianza dell'impegno istituzionale per la sorveglianza continua e l'adattamento della strategia nazionale ai rapidi sviluppi del settore.
L'impianto normativo si distingue per l'attenzione riservata ai settori identificati come a rischio elevato dall'AI Act e dalla prassi internazionale. In sanità, i sistemi basati su intelligenza artificiale assumono il ruolo di strumenti di supporto alla diagnosi e alla terapia, sotto il controllo totale dei professionisti della salute, con garanzie specifiche per la non discriminazione e l'informazione trasparente del paziente. Nell'ambito lavorativo, la normativa favorisce l'utilizzo dell'IA al fine di migliorare le condizioni dei lavoratori e l'efficienza dei processi, escludendo ogni pratica discriminatoria e promuovendo la tracciabilità e il monitoraggio tramite la creazione di un Osservatorio nazionale.
La pubblica amministrazione è chiamata a integrare sistemi di IA soltanto con funzione ausiliaria rispetto alla valutazione umana, mantenendo la responsabilità in capo alle persone fisiche. In giustizia, infine, è vietato l'impiego di algoritmi nella fase di decisione finale, in quanto il potere di interpretazione della legge e di adozione dei provvedimenti resta prerogativa esclusiva dei magistrati: la tecnologia può essere utilizzata in attività organizzative o statistiche, ma mai sostituire il ruolo dell'essere umano nei processi decisionali o nella valutazione delle prove.
Un asse centrale della disciplina nazionale riguarda la protezione rafforzata dei dati personali e della riservatezza. Per i minori di quattordici anni, l'accesso alle tecnologie di intelligenza artificiale e il correlato trattamento dei dati richiede il consenso esplicito dei genitori o dei tutori, allineandosi pienamente alle previsioni del GDPR e del Codice privacy italiani.
In aggiunta, le aziende e le pubbliche amministrazioni sono tenute a implementare informative trasparenti e facilmente comprensibili sulle modalità e finalità d'uso delle tecnologie IA. Permane la necessità di adottare misure tecniche e organizzative per prevenire utilizzi impropri o non autorizzati, oltre ad assicurare il diritto di opposizione e la minimizzazione dei dati trattati, in ottemperanza ai principali criteri del Regolamento Europeo.
Nel contesto sanitario, la disciplina incoraggia lo sfruttamento delle opportunità offerte dall'intelligenza artificiale, a condizione che siano preservati il diritto all'informazione dei cittadini, il controllo umano sulle scelte terapeutiche e la non discriminazione. Il testo prevede che le applicazioni di IA siano impiegate per la prevenzione, la diagnosi e la cura, ma che le decisioni definitive siano sempre adottate dai professionisti sanitari.
È comunque richiesto che l'utente sia chiaramente informato sull'impiego degli strumenti basati su IA e che venga esclusa ogni possibile esclusione o selezione non meritocratica nell'accesso alle cure, in coerenza con il principio di eguaglianza sostanziale garantito dalla Costituzione.
Anche nel mondo del lavoro e nella pubblica amministrazione, è previsto un impiego regolato, trasparente e non discriminatorio delle tecnologie IA. I lavoratori devono essere adeguatamente informati della presenza di strumenti algoritmici nei processi decisionali che li riguardano e, quand'anche tali strumenti siano utilizzati per monitoraggi o valutazioni, la responsabilità delle scelte rimane in capo alle persone fisiche.
La pubblica amministrazione, inoltre, è chiamata a privilegiare soluzioni digitali che garantiscano la localizzazione e sicurezza dei dati strategici, promuovendo fornitori nazionali dove possibile e adottando criteri di trasparenza e accountability in ogni fase di implementazione.
Nel settore della giustizia, l'impianto normativo ribadisce che ogni decisione su interpretazione e applicazione della legge, come pure la valutazione delle prove, è di competenza esclusiva dei magistrati.
I sistemi di IA possono essere utilizzati solo come supporto in compiti amministrativi, organizzativi e di analisi predittiva, ma non possono prendere decisioni vincolanti o sostituire il giudizio umano. Tale assetto si pone come garanzia del rispetto del diritto al giusto processo, tutelando la libertà delle parti processuali da automatismi insindacabili e valorizzando il principio di personalizzazione delle decisioni giudiziarie.
In linea con la strategia europea e per sostenere la competitività del tessuto produttivo nazionale, la normativa prevede investimenti fino a un miliardo di euro a favore di imprese tecnologiche attive nei settori IA, cybersicurezza e tecnologie emergenti. Queste risorse sono destinate a promuovere il trasferimento tecnologico, rafforzare le filiere strategiche, sostenere start-up e PMI, e favorire alleanze pubblico-private.
Sono previsti inoltre incentivi fiscali per ricercatori e lavoratori specializzati nel comparto. Sul fronte della formazione, il testo sostiene la creazione di percorsi di crescita delle competenze digitali sia in ambito scolastico sia professionale, rispondendo alle esigenze del mercato del lavoro e favorendo lo sviluppo di una forza lavoro qualificata.
L'apparato normativo si sofferma su due aspetti critici: la protezione delle opere generate con l'ausilio dell'intelligenza artificiale e la risposta penale ai nuovi rischi connessi all'uso distorto di queste tecnologie. In materia di diritto d'autore, viene ribadito che la creatività umana resta presupposto irrinunciabile per la tutela delle opere, anche quando siano state realizzate tramite sistemi di IA.
La disciplina italiana si uniforma così alle regole UE, riconoscendo il carattere accessorio del contributo algoritmico rispetto all'opera dell'ingegno. In quanto agli usi secondari come il text and data mining, sono previsti limiti e condizioni rigorose, con possibilità di opposizione tramite sistemi tecnici leggibili automaticamente. Dal punto di vista penale, la legge introduce aggravanti specifiche per chi commette reati avvalendosi di IA o diffonde contenuti ingannevoli (deepfake), prevedendo pene severe fino a 5 anni e la possibilità di misure cautelari per bloccare la diffusione di materiale illecito.