Il rispetto dei divieti sull'intelligenza artificiale è un obbligo giuridico con conseguenze economiche per chi sceglierà di ignorarlo.
L'AI Act introduce divieti espliciti su una serie di pratiche che, secondo Bruxelles, sono una minaccia per i diritti dei cittadini. Nel mirino del legislatore europeo ci sono quelle applicazioni ad alto rischio che possono manipolare il comportamento umano, sfruttare la vulnerabilità psicologica o compromettere la privacy e la libertà individuale.
Approfondiamo in questo articolo:
Particolarmente restrittivo è anche il divieto di riconoscimento facciale in tempo reale nei luoghi pubblici, salvo eccezioni limitatissime e sempre motivate da gravi esigenze di sicurezza pubblica. Allo stesso modo, viene vietata la categorizzazione biometrica senza consenso esplicito e la creazione di banche dati biometriche basate su immagini raccolte online o tramite videosorveglianza, se effettuate senza il permesso informato delle persone coinvolte. Le aziende devono rinunciare anche a sistemi di rilevamento delle emozioni nei contesti lavorativi o scolastici e a strumenti di profilazione criminale automatizzata, considerati troppo rischiosi per la tutela della dignità e dei diritti delle persone.
Il rispetto di questi divieti è un obbligo giuridico con conseguenze economiche per chi sceglierà di ignorarlo. L'AI Act prevede sanzioni che possono raggiungere i 35 milioni di euro oppure il 7% del fatturato annuo globale, per chi sviluppa, vende o utilizza tecnologie vietate. Non si tratta di multe simboliche, ma di penalità economiche tra le più alte mai previste per violazioni di normative europee nel settore tecnologico.
Anche chi viola gli obblighi di trasparenza e di informazione agli utenti rischia sanzioni fino a 15 milioni di euro o il 3% del fatturato annuo globale. Le imprese che forniscono dichiarazioni incomplete o fuorvianti alle autorità di vigilanza, o che cercano di ostacolare i controlli, possono essere colpite da multe fino a 7,5 milioni di euro o l'1% del fatturato.
L'entrata in vigore dell'AI Act segna una svolta nella gestione delle tecnologie in azienda, imponendo ai datori di lavoro di verificare con estrema attenzione le soluzioni di intelligenza artificiale adottate. Non basterà più comprare o utilizzare un software: le imprese dovranno garantire la conformità legale, assicurandosi che ogni strumento sia trasparente, sicuro e non rientri tra le tecnologie vietate. Sarà obbligatorio informare i dipendenti su come funzionano le applicazioni di IA utilizzate, illustrando finalità, limiti e rischi, e formare il personale per evitare usi impropri o inconsapevoli.
Ogni decisione automatizzata che incide su contratti, carriera o condizioni lavorative dovrà essere monitorata da un supervisore umano, pronto a intervenire per correggere errori o discriminazioni. La trasparenza nei confronti dei lavoratori diventa un dovere giuridico e non più solo una buona pratica gestionale. Allo stesso tempo, i dipendenti dovranno rispettare le policy aziendali senza utilizzare strumenti non autorizzati o di eludere le regole interne.
Anche i liberi professionisti saranno chiamati a operare con estrema attenzione, rispettando i codici deontologici della loro categoria e gli accordi contrattuali con i clienti. L'utilizzo improprio di strumenti di IA potrà infatti portare alla risoluzione del contratto, a richieste di risarcimento danni, e persino a provvedimenti disciplinari da parte degli ordini professionali.