L’intelligenza artificiale è entrata silenziosamente nelle imprese. Non con robot o scenari fantascientifici, ma attraverso strumenti quotidiani: software che suggeriscono prezzi, sistemi che selezionano curriculum, modelli che stimano flussi di cassa, piattaforme che valutano l’affidabilità dei clienti.
L’IA non sta sostituendo l’imprenditore. Sta influenzando le sue decisioni.
Ed è qui che nasce il vero rischio.
Non è l’algoritmo in sé a essere pericoloso. L’algoritmo è uno strumento. Il problema è la delega cieca, ossia l’abitudine crescente ad accettare l’output della macchina senza comprenderne presupposti, limiti e implicazioni.
Molti sistemi di intelligenza artificiale operano su basi probabilistiche. Non forniscono verità, ma stime. Non formulano giudizi, ma correlazioni. E soprattutto non si assumono responsabilità.
Quando un’impresa modifica un listino, interrompe un rapporto commerciale o nega un affidamento sulla base di un output algoritmico, la responsabilità resta comunque umana. L’amministratore non può rifugiarsi dietro un comodo “lo ha deciso il sistema”.
È un’espressione che si sente spesso, soprattutto in ambito bancario. Ma dietro ogni sistema c’è sempre una scelta umana: qualcuno ha progettato il modello, qualcuno ha definito i parametri, qualcuno ha stabilito le soglie di rischio. Il sistema non decide in autonomia; applica criteri che altri hanno determinato.
La vera questione, allora, non è cosa dica l’algoritmo, ma chi ne governa le regole e chi si assume la responsabilità delle conseguenze.
E qui il tema tecnologico si intreccia con quello della governance.
L’art. 2086 del codice civile impone all’imprenditore che operi in forma societaria o collettiva di istituire assetti organizzativi, amministrativi e contabili adeguati alla natura e alle dimensioni dell’impresa, anche in funzione della rilevazione tempestiva della crisi.
Ma cosa significa “assetto adeguato” in un’impresa che utilizza sistemi di intelligenza artificiale?
Significa, innanzitutto, che l’IA deve essere governata. Deve essere inserita in un processo decisionale strutturato, tracciabile, verificabile. Occorre sapere quali dati alimentano il sistema, quali logiche utilizza, chi valida l’output e chi assume la decisione finale.
Un algoritmo non può diventare un centro decisionale occulto. Se incide su scelte strategiche o finanziarie, entra a pieno titolo nell’assetto organizzativo dell’impresa. E, come tale, deve essere presidiato.
La responsabilità gestoria non è delegabile alla tecnologia. Gli amministratori restano tenuti a valutare le informazioni, a esercitare il proprio giudizio, a dimostrare di aver adottato decisioni consapevoli e ragionevoli. L’IA può supportare, ma non sostituire il dovere di diligenza.
C’è poi un ulteriore rischio: l’omologazione. Se tutte le imprese utilizzano modelli simili, alimentati da dati analoghi, le decisioni tendono a uniformarsi. L’algoritmo ottimizza sulla base del passato; l’imprenditore, invece, deve talvolta saper rompere gli schemi.
L’intelligenza artificiale è uno straordinario acceleratore di efficienza. Ma l’efficienza non coincide con la qualità della decisione. Una decisione automatizzata può essere veloce, ma non necessariamente giusta. Può essere coerente con i dati, ma miope rispetto alla strategia.
Il vero salto culturale non è tecnologico, ma organizzativo: integrare l’IA nei processi aziendali senza rinunciare al pensiero critico e alla responsabilità.
In definitiva, l’algoritmo non decide. Suggerisce. Analizza. Prevede.
A decidere – e a rispondere – resta sempre l’uomo.
Ed è qui che si misurerà la qualità della governance nei prossimi anni. Non nella quantità di tecnologia adottata, ma nella capacità di mantenerne il controllo. Non nell’automazione delle scelte, ma nella consapevolezza di chi le assume.
Perché l’intelligenza artificiale può rendere un’impresa più veloce.
Ma solo la responsabilità umana può renderla solida.
E un assetto organizzativo è davvero adeguato non quando affida le decisioni a un algoritmo, ma quando è in grado di dimostrare chi ha deciso, perché lo ha fatto e sulla base di quali valutazioni.
Mario Vacca
In collaborazione con: www.gazzettadellemilia.it

