Un terzo appuntamento sull’intelligenza artificiale nel tentativo di rispondere agli interrogativi che ci poniamo, scongiurare le paure e progettare un orientamento del futuro.
Nelle ultime settimane si parla sempre più spesso di una nuova parola chiave: AI agentiva. È il passo successivo all’AI generativa — quella che scrive testi, crea immagini, analizza dati — e segna un cambio di paradigma tanto silenzioso quanto dirompente.
Mentre l’AI generativa ha “potenziato” il lavoro umano, affiancando manager, professionisti e imprenditori nella produzione e nell’analisi, l’AI agentiva si appresta a sostituire l’essere umano in una crescente quantità di compiti: telefonare, organizzare, decidere, pianificare, avviare attività in modo autonomo, senza intervento diretto.
Non siamo più davanti a uno strumento da usare, ma ad un agente che “agisce” per noi. Una distinzione sottile ma epocale.
Come già anticipato, in azienda, un agente AI può ricevere un’email da un cliente, comprenderla, rispondere in modo pertinente, aggiornare il CRM, fissare un appuntamento e inviare un promemoria. Tutto da solo.
In uno studio legale, può analizzare 200 contratti, evidenziare criticità, generare una sintesi e predisporre una bozza di parere.
Nella sanità, può schedulare visite, aggiornare la cartella clinica e prenotare esami.
Questo non è più “supporto”. È delegare una catena di decisioni — piccole ma strategiche — a un’entità non umana. Il nodo è proprio qui.
Ogni volta che l’essere umano delega una decisione, perde un’occasione per esercitare la propria responsabilità. Se la delega diventa la regola, rischiamo una disabitudine a decidere. Una rinuncia al pensiero critico, alla consapevolezza, alla fatica del discernimento. Nel “pubblico”, ove lo scarico di responsabilità è – purtroppo – molto diffuso, questo nuovo modus operandi potrebbe aumentare l’insoddisfazione dell’utenza che, in un modo o nell’altro, ne paga il servizio.
E se l’AI prende decisioni “giuste” ma prive di senso, chi si assume la responsabilità di correggerle?
Come ho scritto nei precedenti articoli, l’IA non ha coscienza né visione del bene comune. Per questo motivo, l’adozione dell’AI agentiva non può essere solo tecnologica. Deve essere accompagnata da una nuova cultura della responsabilità, da una formazione diffusa e da una leadership consapevole.
Nelle scuole, nei luoghi di lavoro, nei percorsi di aggiornamento professionale va introdotta una educazione alla delega consapevole. Non si tratta solo di sapere usare l’AI, ma di capire quando ha senso usarla, quando no, quando serve l’uomo, quando serve l’intuizione.
Questo non è tecnicismo: è umanesimo organizzativo. È la capacità di restare protagonisti in un’epoca di automazione, il velo valore oggi è la visione.
L’agente AI compie azioni. Ma non ha visione. Non sogna, non intravede, non costruisce futuro. Lo fanno gli imprenditori, i docenti, i dirigenti, i genitori. Se perdiamo la visione, l’agente AI farà bene… ma senza sapere perché.
La vera sfida è allora questa: non correre dietro alla tecnologia, ma dare forma al cambiamento. Non solo imparare a usare l’AI agentiva, ma educare chi la guiderà.
E chiederci ogni giorno: quale parte di umano vogliamo lasciare nelle mani delle macchine? E quale parte dobbiamo, con cura, continuare a tenere per noi? Come già accaduto con l’avvento dei telefoni cellulari, rischiamo di accogliere l’innovazione con entusiasmo, salvo poi accorgerci che in molti casi non siamo noi a usare la tecnologia, ma è la tecnologia a usare noi. Con l’intelligenza artificiale, possiamo permetterci lo stesso errore?
Di solito evito di chiudere un articolo con una domanda, ma in questo caso lo faccio volutamente per stimolare una riflessione che coinvolga voi lettori, auspicando anche un vostro feedback da approfondire insieme in futuro.
Mario Vacca
In collaborazione con: www.gazzettadellemilia.it

