L'uso dell'IA nel lavoro dei professionisti solleva dubbi e questioni tra regole, obblighi e criticitŕ nonostane la normativa creata appositamente e approvata il 10 ottobre 2025, in particolare l’art. 13 della Legge 132/2025
L’avvento dei sistemi di intelligenza artificiale (IA) ha trasformato profondamente le modalità operative di numerosi settori, tra cui quello delle prestazioni professionali e delle attività svolte con partita IVA. L’adozione di soluzioni AI è sempre più frequente tra avvocati, medici, ingegneri, architetti e figure emergenti come data analyst o copywriter. Tuttavia, questi strumenti sollevano interrogativi sulla titolarità e responsabilità del processo decisionale, nonché sul mantenimento di una relazione fiduciaria con il cliente.
Il legislatore ha deciso di intervenire con l’art. 13 della Legge 132/2025, introducendo regole volte a garantire che l’apporto umano rimanga prevalente nel risultato finale della prestazione professionale, senza escludere del tutto il contributo delle macchine. Nonostante questa nuova nuova normativa del 10 ottobre 2025, ci sono ancora dubbi, perplessità e problemi da chiarire
L’articolo 13 della Legge 132/2025 rappresenta la risposta normativa alle crescenti sfide poste dall’utilizzo dei sistemi di intelligenza artificiale nell’ambito delle professioni intellettuali. Tale disposizione si articola su due direttrici principali: da un lato, individua il principio della prevalenza dell’attività umana rispetto all’intervento delle macchine, dall’altro impone obblighi di informazione e trasparenza nei confronti dei clienti.
Il testo normativo non vieta l’uso dell’AI, ma ne delimita l’impiego esclusivamente ad attività di supporto e strumentali, allo scopo di rafforzare la responsabilità individuale del professionista. In particolare, l’intervento tecnologico deve essere subordinato all’apporto intellettuale e autonomo del soggetto incaricato della prestazione. La norma specifica che le informazioni sui sistemi adottati debbano essere comunicate con linguaggio semplice e completo, così da assicurare la piena comprensione da parte del cliente.
L’art. 13 presenta, però, alcune aree di ambiguità applicativa: non chiarisce criteri quantitativi o qualitativi precisi per la determinazione della “prevalenza” umana, lasciando quindi margini di interpretazione. Inoltre, le sanzioni e le conseguenze in caso di inosservanza non risultano codificate con puntuale organicità, lasciando spazio a dubbi interpretativi sugli effetti disciplinari e civili.
L’individuazione del perimetro soggettivo della disposizione risulta tra gli aspetti più discussi. Il dettato normativo fa riferimento in modo generico alle “professioni intellettuali”, senza specificare l’obbligatorietà di iscrizione ad un ordine o la necessità di titoli abilitanti. Di conseguenza, la platea dei soggetti potenzialmente coinvolti risulta assai ampia, annoverando sia le cosiddette professioni regolamentate (avvocati, ingegneri, architetti, commercialisti, medici), sia le attività non ordinistiche come data analyst, consulenti editoriali, traduttori, grafici, copywriter.
La giurisprudenza di riferimento – anche in forza di quanto previsto dagli artt. 2229 e 2231 del Codice Civile – sostiene l’idea che la disciplina debba trovare applicazione in tutte le ipotesi in cui la natura intellettuale della prestazione sia prevalente rispetto a quella meramente esecutiva, in assenza di vincoli di subordinazione e in presenza di un rapporto fiduciario tra fornitore e committente.
L’approccio adottato amplia, così, la platea dei destinatari della norma, estendendola a professionisti operanti in qualunque settore che facciano un utilizzo, anche soltanto parziale e senza dimenticare la questione dell'obbligatorietà, di strumenti AI nella propria attività, a prescindere dall’inquadramento giuridico professionale. Questo comporta che le stesse regole di responsabilità, trasparenza e autonomia concorrano a fissare standard minimi di comportamento e diligenza, anche là dove non siano previsti ordini o codici deontologici professionali.
In sintesi:
Le difficoltà principali emergono nel definire e quantificare cosa si intenda per “prevalenza”. Alcune interpretazioni suggeriscono l’adozione di criteri temporali (tempo impiegato dal professionista rispetto a quello del sistema AI), criteri contenutistici (valutazione qualitativa sui contenuti generati dall’intelligenza artificiale e dall’operatore umano) oppure basati sull’apporto nella creazione dei prompt e nella verifica dei risultati forniti dal sistema. Tali richiami, tuttavia, non appaiono dotati di immediata applicabilità pratica.
In particolare:
La trasparenza rappresenta uno degli elementi chiave illustrati dall’art. 13. La norma impone ai professionisti un dovere di informazione dettagliata e comprensibile circa l’utilizzo di sistemi AI nella propria attività. Sono previste informative trasparenti, redatte in linguaggio chiaro, esaustivo e privo di tecnicismi, finalizzate a rafforzare il rapporto di fiducia col cliente.
Il professionista è chiamato a comunicare:
L’aspetto sanzionatorio e risarcitorio correlato all’inottemperanza degli obblighi previsti dall’art. 13 assume connotazioni variegate in relazione alla categoria di appartenenza del professionista coinvolto. Per le professioni regolamentate, la violazione può configurare una responsabilità disciplinare, con conseguenze che vanno dall’ammonizione alla sospensione o, nei casi più gravi, alla radiazione dall’albo.
Per professioni non sottoposte a ordini o regolamenti specifici, le tutele in caso di violazione risultano meno strutturate e prevalentemente affidate agli strumenti della responsabilità civile per rischio di inadempimento contrattuale o per danni da errore professionale. In ogni caso, il cliente insoddisfatto può agire se dimostra difetti nella prestazione o nella diligenza del prestatore d’opera dovuti ad un impiego inappropriato della tecnologia.
| Settore | Tipologia di responsabilità | Sanzione possibile |
| Professioni regolamentate | Deontologica / Civile | Ammonimento, sospensione, radiazione, risarcimento danni |
| Professioni non regolamentate | Civile | Rimborso, risarcimento danni |
Non sono previste, invece, nullità automatiche dei contratti stipulati con violazione della normativa, in assenza di espliciti divieti o condizioni essenziali mancanti.
La regolamentazione attuale, indipendentemente dall'impatto dell'IA, lascia ancora zone grigie, soprattutto per le attività professionali prive di ordini o codici deontologici strutturati. L’assenza di linee guida condivise e modelli di comportamento standardizzati espone questi soggetti a maggiori rischi d’incertezza e di contenziosi in caso di conflitti. Mancano inoltre procedimenti certi per la formazione e la verifica dei contenuti delle informative da rendere ai clienti, come anche chiavi interpretative univoche sui criteri di prevalenza umana.
Le professioni emergenti, legate al digitale e all’innovazione, sentono fortemente la necessità di strumenti applicativi chiari. Si rende auspicabile l’elaborazione futura di raccomandazioni e modelli interpretativi sia da parte delle associazioni di categoria sia da organismi pubblici, anche in relazione alle evoluzioni regolamentari europee.
I 3 problemi e questioni principali da affonrtare sono: