Dal 2006 il tuo sito imparziale su Lavoro, Fisco, Investimenti, Pensioni, Aziende ed Auto

Intelligenza artificiale in azienda, le linee guida sull'uso e nei contratti del Ministero del Lavoro

di Chiara Compagnucci pubblicato il
Intelligenza artificiale in azienda

Le aziende devono introdurre contratti che riconoscano funzioni, tutele e prerogative autonome nell'ambito dell'intelligenza artificiale.

Il Ministero del Lavoro ha pubblicato le Linee Guida per l'implementazione dell'IA nel mondo del lavoro, avviando una consultazione pubblica aperta fino al 21 maggio 2025, con l'obiettivo di raccogliere osservazioni e contributi da parte di imprese, professionisti, sindacati e cittadini.

Il principio cardine che permea l'intero documento 2025 è la supervisione umana integrale. Ogni decisione automatizzata, ogni output generato da un sistema algoritmico, ogni valutazione elaborata dall'IA deve essere, in ultima istanza, sottoposta al vaglio di un essere umano qualificato, capace non solo di comprenderne il funzionamento, ma anche di smentirlo, correggerlo o disattivarlo del tutto. Non si tratta di una cautela accessoria, bensì di un requisito essenziale per garantire il rispetto della normativa europea, in particolare del Gdpr, e per tutelare la dignità e i diritti dei lavoratori.

Il Ministero sottolinea come l'adozione dell'IA non possa prescindere da una profonda riorganizzazione aziendale, che assegni un ruolo centrale al supervisore umano. Il suo intervento non deve essere meramente formale, ma effettivo, libero da pressioni gerarchiche, svincolato da conflitti di interesse e dotato della possibilità concreta di interrompere il funzionamento del sistema automatico. Entriamo nei dettagli:

  • Contratti, funzioni e responsabilità dall'uso dell'intelligenza artificiale in azienda
  • Trasparenza, informazione e tutele per tutti i lavoratori

Contratti, funzioni e responsabilità dall'uso dell'intelligenza artificiale in azienda

Un nodo delicatissimo è il rapporto di lavoro del supervisore dell'IA. Secondo quanto previsto dalle Linee Guida, le aziende devono introdurre contratti che riconoscano funzioni, tutele e prerogative autonome a questa figura professionale. Non basta nominare un dipendente con un'etichetta diversa: servono strumenti giuridici che gli conferiscano libertà operativa, garantiscano la sua protezione da eventuali ritorsioni e gli permettano di svolgere il proprio compito in maniera imparziale.

Il supervisore dell'intelligenza artificiale non può, per ragioni di incompatibilità funzionale, ricoprire il ruolo di responsabile della protezione dei dati. Quest'ultimo deve restare esterno ai processi decisionali e produttivi, mentre il supervisore dell'IA vi è pienamente coinvolto. Tuttavia, le due figure sono chiamate a una collaborazione costante, soprattutto laddove si trattano dati sensibili o personali.

Il contratto dovrà anche tenere conto della possibilità, per il supervisore, di intervenire direttamente nei cicli produttivi, anche a costo di bloccare temporaneamente servizi o attività. Una facoltà che, se non correttamente inquadrata, rischia di entrare in rotta di collisione con i vincoli di subordinazione e le aspettative di performance che caratterizzano il rapporto di lavoro tradizionale. Per questo motivo, le Linee Guida suggeriscono un ripensamento strutturale di queste relazioni, orientato a una maggiore autonomia e a una responsabilizzazione coerente con la complessità delle funzioni affidate.

Trasparenza, informazione e tutele per tutti i lavoratori

Oltre alla dimensione organizzativa e contrattuale, le Linee Guida affrontano il tema della trasparenza nell'utilizzo dell'IA nei confronti dei dipendenti. È indispensabile che ogni lavoratore sia consapevole dell'impiego di sistemi automatizzati che lo riguardano, che si tratti di strumenti per la selezione del personale, di algoritmi per la valutazione delle performance o di software per la gestione dei turni.

I lavoratori hanno il diritto di essere informati su come e quando viene usata l'intelligenza artificiale e, soprattutto, sulle modalità con cui possono contestare decisioni automatizzate ritenute scorrette, discriminatorie o arbitrarie. L'esercizio di questo diritto presuppone un'adeguata formazione da parte dell'azienda e una cultura della trasparenza e del dialogo che, troppo spesso, è ancora lontana dal diventare realtà.

Il Ministero chiarisce che le imprese devono adottare misure attive per la partecipazione informata dei dipendenti, evitando zone grigie o ambiguità. L'IA non può essere una scatola nera di cui si ignora il funzionamento. Al contrario, dev'essere uno strumento tracciabile, interpretabile e, soprattutto, contestabile. In questa direzione, si suggerisce l'introduzione di audit interni, sportelli di ascolto e sistemi di segnalazione sicura.

Leggi anche