Il quadro normativo, consolidato dalla legge 132/2025, introduce obblighi informativi legati all’impiego di sistemi di AI nello svolgimento degli incarichi professionali. Tali obblighi sono il riflesso della necessità di salvaguardare il rapporto fiduciario tra cliente e professionista, garantendo trasparenza e tutela degli interessi del destinatario della prestazione.
Le disposizioni della legge quadro si inseriscono in una cornice più ampia, che coinvolge regole deontologiche, policy organizzative e responsabilità individuali, imponendo prassi di comunicazione chiara e gestibile sia dal punto di vista legale che operativo.
L’obbligo di informativa: cosa, come e quando comunicare al cliente
Il principio di prevalenza del lavoro umano rispetto all’uso degli algoritmi costituisce il cardine della recente disciplina nazionale e comunitaria in materia di AI applicata alle professioni intellettuali. La legge 132/2025, in linea con il Regolamento (UE) 2024/1689, dispone che le tecnologie basate sull’intelligenza artificiale possono essere adottate esclusivamente a supporto dell’attività professionale. Significa che strumenti algoritmici sono consentiti solo per compiti di elaborazione dati, ricerca documentale o ottimizzazione di bozza, sempre sotto la regia del pensiero critico e dell’esperienza del professionista:
-
Il ricorso all’intelligenza artificiale non può mai sostituire il giudizio umano, né assurgere a elemento prevalente nell’erogazione del servizio.
-
La qualità della prestazione resta legata al valore della competenza personale, alla capacità decisionale e alla responsabilità etica del professionista.
-
La supervisione umana rappresenta una garanzia per la correttezza e il rispetto dei valori deontologici.
I
sistemi AI vengono paragonati, in più sedi, ad ausili “strumentali”, analoghi a quelli informatici oggi di uso comune. Tuttavia, solo la combinazione virtuosa tra tecnologia e intelletto umano permette di mantenere elevati standard qualitativi e di prevenire un affidamento acritico alla macchina, che potrebbe compromettere sia la qualità sia la natura del rapporto professionale.
Il dovere di comunicazione trasparente sull’uso dell’intelligenza artificiale è una delle principali innovazioni introdotte dalla recente normativa. Secondo la legge 132/2025, ogni professionista è tenuto a informare il cliente, in modo chiaro e semplice, in merito all’utilizzo di sistemi di intelligenza artificiale nell’ambito della prestazione svolta. Questa informazione non è una mera formalità, ma uno strumento di tutela del destinatario della prestazione stessa.
-
La comunicazione deve avvenire preferibilmente in forma scritta, inserita nei documenti ufficiali come lettera di incarico o mandato professionale.
-
Nel testo informativo occorre indicare quali strumenti di AI vengono impiegati, quale sia la loro funzione rispetto allo svolgimento del compito e le modalità di supervisione umana applicate alle attività automatizzate.
-
Non basta indicare genericamente il ricorso a tecnologie innovative: il cliente dev’essere posto nelle condizioni di comprendere come l’AI è utilizzata, quale tipo di dato è trattato e a quali rischi può andare incontro.
Per settori come l’ambito forense, la chiarezza dell’informazione assume particolare rilievo. Sono consigliate spiegazioni dettagliate e adattate al livello di comprensione del cliente, per salvaguardare trasparenza, controllo e il mantenimento della fiducia. Gli Ordini e i Consigli professionali stanno emanando linee guida e fac-simile per strutturare informative efficaci e personalizzabili, mentre le associazioni di categoria mettono a disposizione percorsi formativi a supporto dei professionisti nella corretta comunicazione di questo obbligo.
Responsabilità professionale e rischi connessi all’utilizzo dell’AI
L’introduzione di strumenti di AI non modifica la ripartizione delle responsabilità tra cliente e professionista. A permanere, in capo al professionista, è un obbligo di diligenza rafforzato: ogni decisione e risultato prodotto, anche con il contributo della tecnologia, resta sotto la sua responsabilità esclusiva. Il rischio di errori, imprecisioni o allucinazioni algoritmiche non può essere addebitato al sistema digitale, ma ricade interamente su chi firma il documento o la consulenza.
-
Eventi recenti, come la sanzione disciplinare inflitta a un legale per l’uso inappropriato di AI nella redazione di un atto giudiziario, sottolineano la necessità di mantenere il controllo attivo sugli strumenti tecnologici.
-
Il professionista deve dimostrare conoscenza, consapevolezza e capacità di valutazione critica sia nell’individuazione degli strumenti sia nell’interpretazione dei risultati forniti.
Le polizze di responsabilità civile professionale continuano a coprire anche i rischi legati al ricorso a sistemi di intelligenza artificiale, a condizione che l’uso di tali strumenti sia consapevole e non lasciato a procedure automatiche prive di vigilanza. In caso di affidamento cieco ad algoritmi non verificati, il danno prodotto resta in ogni caso imputabile al professionista, che dovrà rispondere anche sotto il profilo disciplinare e nei confronti del cliente.
Conseguenze e sanzioni in caso di mancata informativa ai clienti
L’attuale quadro normativo non prevede una sanzione amministrativa per la violazione dell’obbligo di comunicare l’uso dell’intelligenza artificiale. Tuttavia, la condotta omissiva costituisce una violazione dei doveri deontologici e può comportare rilevanti conseguenze disciplinari.
-
I Codici deontologici delle varie categorie professionali stabiliscono l’obbligo di trasparenza e correttezza nella gestione dell’incarico, integrando l’obbligo di informativa sull’AI tra le condizioni essenziali per la liceità dell’attività.
-
Il mancato rispetto potrebbe comportare sanzioni fino alla sospensione dall’albo, in base alla gravità e alle modalità della violazione.
-
Nei casi in cui la mancata informativa abbia determinato un danno patrimoniale o reputazionale al cliente, sono ipotizzabili anche profili di responsabilità civile e risarcitoria.
L’assenza di una previsione sanzionatoria non riduce l’importanza della trasparenza: il rispetto della disciplina è una componente sostanziale della diligenza professionale richiesta anche per accrescere la fiducia nell’utilizzo responsabile della tecnologia.
L’adeguamento dei codici deontologici e il ruolo degli Ordini professionali
L’introduzione della disciplina sull’intelligenza artificiale obbliga tutti gli Ordini e le Associazioni professionali a un adeguamento delle regole deontologiche interne. I Consigli nazionali delle categorie stanno aggiornando i propri Codici per includere esplicitamente i riferimenti all’uso dei sistemi AI e agli obblighi informativi connessi.
-
Alcuni Ordini, come quello dei giornalisti, hanno già adottato l’obbligo informativo, mentre altri (ad esempio avvocati e notai) sono impegnati in revisioni sostanziali delle loro discipline interne.
-
Le associazioni rappresentative delle professioni non ordinistiche stanno elaborando linee guida settoriali per assicurare omogeneità di indirizzo anche a livello extra-ordinistico.
-
I Consigli nazionali e le Casse di previdenza possono stipulare convenzioni collettive per la copertura assicurativa dei nuovi rischi legati all’innovazione digitale.
L’interazione tra normativa nazionale, Regolamento UE e Codici deontologici garantisce una cornice regolatoria solida, tesa a rafforzare l’equilibrio tra esigenze di innovazione e protezione dei valori fondanti del rapporto di fiducia con il cliente.
Formazione, policy interne e nuovi modelli di compenso nel contesto AI
L’obbligo di formazione continua sull’uso dell’intelligenza artificiale sta diventando parte integrante dei percorsi professionali. I recenti interventi normativi, inclusa la legge 132/2025, affidano agli Ordini il compito di predisporre corsi e aggiornamenti obbligatori per accrescere competenza tecnologica e consapevolezza critica.
-
Le policy interne degli studi devono disciplinare l’utilizzo degli strumenti algoritmici, individuando sistemi appropriati, proteggendo la riservatezza dei dati e garantendo la costante supervisione umana.
-
Le attività di formazione, sviluppate su base periodica, includono anche l’analisi dei rischi e delle opportunità, oltre alla comprensione delle implicazioni etiche e normative.
-
Emergono nuovi modelli di equo compenso, adattabili alla complessità dell’incarico e alla responsabilità aggiuntiva derivante dalla gestione dei processi automatizzati: quanto maggiore il rischio di supervisione dell’AI, tanto più va parametrato l’onorario, come specificato nella recente legge che richiama il principio dell’equo compenso "modulabile".
Questi nuovi meccanismi mirano a valorizzare il ruolo della competenza tecnica dei professionisti, a fronte di un ambiente lavorativo in continua evoluzione digitale, senza penalizzare economicamente l’adozione consapevole di strumenti tecnologici avanzati.
Leggi anche