Notizie recenti

| | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
Home Aziende Economia Dal 10 ottobre una nuova stagione di responsabilità per i professionisti

Dal 10 ottobre una nuova stagione di responsabilità per i professionisti

image_printStampa

Il mondo delle professioni intellettuali in Italia — dagli avvocati ai commercialisti, passando per notai, consulenti del lavoro e altri professionisti ordinistici — si trova alla vigilia di un passaggio epocale. Il 10 ottobre 2025 è entrata in vigore la Legge 132/2025, meglio conosciuta come AI Act italiano: una norma che impone l’obbligo di trasparenza totale sull’uso dell’intelligenza artificiale nell’esercizio dell’attività professionale.

Per molti, fino a ieri, l’uso di un modello linguistico come ChatGPT, Claude o altri Large Language Models era qualcosa di interno, riservato, magari impiegato per velocizzare ricerche, analisi o la redazione di bozze. Da domani, invece, ogni utilizzo dovrà essere dichiarato e tracciabile, con una regola semplice ma rivoluzionaria: il cliente ha diritto di sapere se, come e in quale misura l’IA è stata utilizzata nella prestazione che riceve.

La legge nasce in attuazione del Regolamento europeo sull’Intelligenza Artificiale, ma introduce un elemento tutto italiano: una rivoluzione antropocentrica della responsabilità. Il principio cardine è che l’IA può essere uno strumento, non un sostituto. Il valore della prestazione professionale continua a poggiare sull’intelletto, sulla capacità critica e sul giudizio umano. L’uso dell’intelligenza artificiale è ammesso solo come supporto strumentale, e mai come parte prevalente o determinante della prestazione.

Cambia così anche la relazione tra professionista e cliente. Avvocati, commercialisti, notai e consulenti dovranno informare in modo chiaro e comprensibile se utilizzano sistemi di IA, quali funzioni questi svolgono, quali sono i loro limiti e in che modo viene garantita la tutela dei dati. Non basterà una formula generica: servirà un’informativa esplicita, inserita nelle lettere d’incarico o nei contratti, che consenta al cliente di capire davvero come la tecnologia partecipa al processo professionale.

Un altro punto cruciale riguarda la responsabilità. Anche se l’errore nasce da un output sbagliato dell’IA, la colpa — e l’onere del controllo — restano sempre in capo al professionista. La legge è chiara: la decisione, la valutazione e la verifica devono essere umane. Nessun algoritmo potrà essere invocato come scudo. Per questo, si prevede un rafforzamento della copertura assicurativa obbligatoria, che dovrà tenere conto dei rischi connessi all’uso di strumenti intelligenti.

Il cambiamento tocca anche la formazione. L’introduzione di questo obbligo di trasparenza spingerà gli ordini professionali a strutturare percorsi di aggiornamento sull’uso consapevole dell’IA: non solo dal punto di vista tecnico, ma anche etico e giuridico. La vera sfida non sarà “come usare l’IA”, ma come restare pienamente professionisti nell’epoca dell’IA.

C’è poi un aspetto culturale da non sottovalutare. Portare alla luce l’uso dell’intelligenza artificiale non è solo un adempimento burocratico: è un atto di fiducia verso il cliente e verso la collettività. È il riconoscimento che la tecnologia non può sostituire la responsabilità personale, ma può valorizzarla se utilizzata con misura e trasparenza.

In questo senso, la Legge 132/2025 non è solo una norma, ma una chiamata alla maturità professionale: richiede di integrare l’innovazione senza smarrire l’identità, di essere interpreti consapevoli di un cambiamento che non ammette improvvisazione.

In concreto, chi utilizza strumenti basati su IA (per esempio software predittivi, piattaforme di analisi contabile o modelli generativi per redigere relazioni e pareri) dovrà informare esplicitamente il cliente. L’informativa potrà essere inserita nella lettera d’incarico, con una formula del tipo:

Nel corso dello svolgimento dell’incarico potranno essere utilizzati strumenti basati su tecnologie di intelligenza artificiale per finalità di supporto tecnico e operativo. Tali strumenti non sostituiscono l’attività professionale, ma la integrano, restando la responsabilità e la decisione finale in capo al professionista incaricato.”

La legge vieta che l’IA diventi lo strumento principale della prestazione: può assistere il professionista, non sostituirlo.

Ciò significa che:

  • le analisi automatiche dei bilanci o dei flussi di cassa dovranno sempre essere verificate e interpretate dal professionista;
  • le simulazioni o le previsioni generate da algoritmi dovranno essere accompagnate da un commento umano che ne espliciti ipotesi, limiti e attendibilità;
  • l’uso di modelli linguistici per la stesura di relazioni, pareri o documenti fiscali dovrà essere sempre revisionato e firmato dal professionista, che ne assume la paternità.

Sul piano operativo, conviene agire subito su cinque fronti:

  1. Aggiornare le lettere d’incarico con l’informativa sull’uso dell’IA.
  2. Mappare i software in uso nello studio, distinguendo tra quelli che impiegano IA e quelli che non lo fanno.
  3. Definire procedure interne di controllo e verifica dei risultati prodotti da strumenti intelligenti.
  4. Estendere la copertura assicurativa RC professionale ai rischi legati all’IA.
  5. Formare il personale su rischi, bias e limiti delle tecnologie adottate.

La nuova normativa impone più rigore, ma offre anche un’opportunità: quella di mostrare che l’IA, se governata e non subita, può diventare un alleato strategico.
L’obiettivo è chiaro: più efficienza sì, ma senza mai rinunciare al valore del giudizio umano, che resta l’essenza stessa della professione.

Inizia una nuova stagione. Nessun divieto, ma una responsabilità più alta: dimostrare che il cuore della professione resta umano, anche quando si serve dell’intelligenza delle macchine.

Mario Vacca

In collaborazione con: www.gazzettadellemilia.it 

Fuori dal Silenzio

SatiQweb

dott. berardi domenico specialista in oculistica pubblicità