Dal 2006 il tuo sito imparziale su Lavoro, Fisco, Investimenti, Pensioni, Aziende ed Auto

Licenziamento lavoratore valido se sostituito dall'IA: le condizioni necessarie decise da sentenza tribunale di Roma

di Marianna Quatraro pubblicato il
Sentenza tribunale di Roma

L'uso dell'IA come motivo di licenziamento apre nuove sfide tra giurisprudenza, crisi aziendali, tutela dei lavoratori e rischi di discriminazione. La sentenza di Roma fa luce su requisiti e limiti.

Il Tribunale di Roma con la sentenza 9135 del 19 novembre 2025 ha stabilito che un licenziamento può essere considerato valido quando viene dimostrato che le mansioni del lavoratore sono state del tutto assorbite da sistemi automatizzati e algoritmi. Questa posizione, emersa da una sentenza che fa scuola, sottolinea la necessità di rispettare specifiche condizioni e tutele per i lavoratori coinvolti.

Il provvedimento si inserisce in un dibattito sempre più attuale sui confini tra esigenze di innovazione, sostenibilità aziendale e tutela dei diritti fondamentali nell'era digitale. Il caso romano rappresenta una risposta giurisprudenziale a una tematica complessa: la legittimità del licenziamento in presenza di automazione avanzata, ponendo nuove basi giuridiche e sociali per garantire equilibrio tra sviluppo tecnologico, garanzie e inclusione lavorativa.

Condizioni per il licenziamento: crisi, riorganizzazione e ricollocazione

La magistratura romana, prendendo posizione sull'impiego dell'IA in azienda, ha definito in modo chiaro quali sono le condizioni che devono sussistere perché il licenziamento connesso a mansioni automatizzate possa essere ritenuto legittimo. Tre i pilastri:

  • Crisi economico-produttiva: l'azienda deve essere in grado di documentare uno stato di difficoltà, dimostrando mediante dati oggettivi la necessità di razionalizzazione dei costi o il bisogno di riadattare la propria struttura produttiva.
  • Riorganizzazione reale e non fittizia: l'automazione deve inserirsi all'interno di un progetto di riorganizzazione effettivo, che risponda a esigenze concrete di efficientamento, modernizzazione o digitalizzazione dei processi. I giudici chiedono che sia provato, anche tramite relazioni tecniche e gestionali, che la soppressione delle mansioni non sia strumentale, bensì conseguenza di precise scelte di innovazione tecnologica.
  • Impossibilità di ricollocazione: la società è tenuta a verificare tutte le possibilità di adibire il lavoratore a mansioni equivalenti o inferiori (cd. obbligo di repêchage), sia nell'ambito della stessa unità produttiva che in altri reparti o filiali. Se tale tentativo non ha esito positivo, solo allora il recesso per giustificato motivo oggettivo - anche se dovuto all'automazione - può essere considerato conforme ai principi di correttezza, buona fede ed equità nei rapporti di lavoro.
Nel contesto italiano, la disciplina di riferimento resta l'art. 3 della Legge 604/1966, armonizzata dal D.Lgs. 81/2015 e dalle recenti riforme del diritto del lavoro. In questo quadro, la giurisprudenza richiede un elevato livello di motivazione nel provvedimento di licenziamento, mettendo al centro la verifica caso per caso delle effettive esigenze organizzative, per evitare arbitrarietà o abusi. La sentenza del Tribunale di Roma introduce così un modello di controllo stringente, soprattutto dove l'innovazione tecnologica può generare effetti sociali rilevanti e rischi di esclusione per le categorie più esposte alle trasformazioni digitali.

Casi reali: come l'IA sostituisce il lavoro umano

L'avanzata dell'IA e delle tecnologie emergenti sta ridisegnando la struttura produttiva in numerosi settori. Un esempio concreto in Italia riguarda il caso Maersk: quattro dipendenti del colosso logistico sono stati licenziati con la motivazione che le loro mansioni di assistenza clienti sarebbero state trasferite, in parte, nelle Filippine e, in parte, automatizzate tramite software intelligenti. Sindacati e lavoratori hanno manifestato preoccupazione per la rapidità della decisione e la mancanza di reale preavviso e ricollocazione:

  • Nella pubblica amministrazione e nei grandi gruppi, l'introduzione di AI agisce spesso attraverso piattaforme di customer service automatizzato, sistemi di gestione documentale, e software predittivi per l'ottimizzazione dei processi. Queste applicazioni, già operative in contesti come assicurazioni, banche e servizi pubblici, hanno comportato un ridimensionamento delle attività manuali.
  • In campo internazionale - si pensi agli Stati Uniti - la progressiva integrazione degli algoritmi (come Grok AI) nelle valutazioni del personale vede implicazioni molto controverse, soprattutto quando le decisioni sono affidate, almeno in parte, a sistemi automatizzati.
La tendenza, comune nei grandi player globali e nelle amministrazioni pubbliche, è orientata verso una gestione data-driven dei compiti lavorativi e una riduzione delle figure duplicative o facilmente sostituibili. Tuttavia, casi recenti mostrano che il ricorso massivo all'IA genera resistenza sindacale e dubbi sulla qualità dell'output, sulla gestione dei dati personali e sulla trasparenza dei processi. Per questo motivo, in molte realtà, la fase finale della valutazione lavorativa resta affidata all'intervento umano, sia per evitare errori grossolani che per garantire il rispetto delle tutele previste dalla legge.

I limiti imposti dalla legge e dalla giurisprudenza

Il quadro normativo italiano, integrato da regolamenti europei come l'AI Act (Regolamento UE 2024/1689), pone particolare attenzione alla tutela dei lavoratori in caso di automatizzazione delle mansioni. Secondo art. 3 della legge 604/1966, la soppressione del posto di lavoro per motivi economici o organizzativi costituisce giustificato motivo oggettivo, ma il licenziamento è legittimo solo dopo la verifica rigorosa degli obblighi di repêchage.

Le recenti pronunce della giurisprudenza (es. Cassazione 3 luglio 2025 n. 18063) hanno rafforzato tale principio, sancendo un obbligo di ricollocazione rafforzato in presenza di lavoratori meritevoli di particolari tutele (malattia grave, assistenza a familiari disabili, anzianità etc.). Ogni scelta di riorganizzazione - anche digitale - deve essere motivata e documentata. La legge vieta licenziamenti discriminatori o fondati su criteri che, anche solo indirettamente, pregiudichino categorie di soggetti protetti.

Con l'approvazione dell'AI Act europeo, l'accento viene posto sulla necessità di trasparenza negli algoritmi decisionali ad alto rischio occupazionale: gli strumenti di IA impiegati nella valutazione delle performance, nelle selezioni e nei licenziamenti dovranno essere auditabili, esplicabili e sottoposti a revisione umana, come espresso all'art. 13 del regolamento. Il principio di umano-in-the-loop sancisce che la responsabilità finale delle decisioni resta in capo all'organizzazione e ai suoi manager, non potendosi delegare interamente ad agenti autonomi o sistemi opachi. Tali regole danno concretezza ai principi costituzionali di equità, tutela della dignità e diritto alla difesa (articoli 4, 24 e 35 della Costituzione italiana).

Impatto dell'automazione e IA su lavoratori e contratti: rischi e tutele

La crescente pervasività dei sistemi intelligenti nell'organizzazione aziendale comporta opportunità e rischi sostanziali per il tessuto occupazionale:

  • Rischio di esclusione e polarizzazione del lavoro: i dipendenti con mansioni ripetitive sono i più esposti, mentre aumentano le richieste di competenze digitali trasversali.
  • Ridefinizione dei contratti e dei livelli di inquadramento: la diffusione di sistemi di IA richiede una revisione dei contratti collettivi (CCNL e accordi aziendali), soprattutto per quanto riguarda la gestione dei cambiamenti organizzativi, la formazione e la riconversione delle competenze.
  • Tutele crescenti per i lavoratori: la contrattazione collettiva sta gradualmente introducendo nuove garanzie, come l'estensione dei periodi di preavviso, la previsione di percorsi di reinserimento e l'obbligo di informazione trasparente sull'impiego dell'IA.
Il rilancio delle politiche di formazione continua e aggiornamento professionale, finanziato anche con fondi pubblici e misure dedicate (es. nuovi strumenti per il benessere e la riqualificazione dei lavoratori nel settore turistico), rappresenta una risposta concreta per gestire la fase di transizione. Inoltre, le sentenze in materia richiedono che il datore metta a disposizione, dove possibile, percorsi di riqualificazione prima di procedere alla risoluzione del rapporto.

Discriminazioni algoritmiche ed equità nel licenziamento per IA

L'utilizzo massivo di sistemi IA pone questioni sul rischio di discriminazione indiretta. Fenomeni recenti, anche a livello internazionale, dimostrano che algoritmi addestrati su dati storici possono perpetuare bias legati a età, genere, provenienza o altri fattori protetti dalle normative. Sentenze come quella relativa al caso iTutorGroup negli USA evidenziano come la selezione automatizzata possa, senza adeguati controlli, escludere soggetti in modo illecito. Le direttive UE e il diritto interno impongono di:

  • garantire la trasparenza degli strumenti digitali impiegati nelle procedure di licenziamento;
  • adottare audit e revisioni periodiche degli algoritmi al fine di identificarne e correggerne eventuali distorsioni o effetti non intenzionali;
  • consentire al lavoratore l'accesso ai dati e alle motivazioni alla base delle decisioni automatizzate, nonché la possibilità di contestazione e difesa individuale davanti alle autorità competenti.
Le imprese devono preservare principi di trasparenza, accountability e inclusione; la sorveglianza degli organismi di vigilanza (come l'Ispettorato del Lavoro o le autorità di protezione dati) e le sanzioni previste dalle normative europee rappresentano un deterrente verso pratiche scorrette o opache. Il rispetto della parità di trattamento e della non discriminazione è un vincolo imprescindibile anche nelle strategie di automazione.