Notizie recenti

| | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |
Home Attualità Italia Dalle pillole agli algoritmi: quando il profitto colonizza la mente

Dalle pillole agli algoritmi: quando il profitto colonizza la mente

image_printStampa

C’è una costante strutturale che attraversa la storia delle grandi industrie contemporanee: quando il margine di guadagno cresce, l’etica arretra. È accaduto con il tabacco, si è ripetuto nel capitolo oscuro del Covid della farmaceutica moderna, ed è ingenuo credere che oggi la dinamica sia diversa.

Cambiano gli strumenti, non la logica. Ieri erano molecole vendute come cure universali, oggi sono algoritmi presentati come soluzioni neutreinevitabili, persino benefiche. In entrambi i casi, il bersaglio resta invariato: la vulnerabilità umana.

Per decenni abbiamo coltivato una convinzione rassicurante: che il mercato, lasciato libero di agire, avrebbe trovato da sé un equilibrio virtuoso. Una narrazione comoda, ma profondamente pericolosa. Perché quando la salute pubblica entra in conflitto con la redditività, l’esperienza storica mostra un esito ricorrente: a soccombere non è quasi mai il conto economico. Oggi questa tensione si ripresenta in un territorio ancora più sensibile e intimo: la sfera cognitiva ed emotiva delle persone.

L’ingresso massiccio dei modelli linguistici avanzati e delle intelligenze artificiali generative non rappresenta soltanto un salto tecnologico, ma un vero cambio di paradigma. Non siamo più di fronte a strumenti passivi. Questi sistemi dialoganorassicuranosuggerisconoorientano

Intervengono nel modo in cui pensiamoapprendiamovalutiamo. L’idea che tale interazione sia intrinsecamente innocua è una semplificazione che non possiamo più permetterci.

Le prime evidenze scientifiche stanno incrinando il mito della neutralità. Studi accademici recenti indicano come l’uso intensivo di questi strumenti possa favorire forme di dipendenza psicologica, soprattutto in soggetti esposti a stressisolamento o pressione performativa. L’eccessivo affidamento all’IA per il supporto emotivo o cognitivo non allevia necessariamente il disagio: spesso lo amplifica, associandosi a livelli più elevati di ansiadepressione e senso di inadeguatezza. Non è un paradosso, ma una dinamica prevedibile

Quando una macchina diventa il principale interlocutore, il rischio è che sostituisca, anziché integrare, le relazioni umane.

Il passaggio più inquietante, tuttavia, non proviene dai critici esterni, ma dall’interno dell’industria tecnologica. Alcuni dei suoi leader — Sam Altman, CEO di OpenAI, in primis — hanno riconosciuto apertamente che le capacità persuasive delle intelligenze artificiali potrebbero superare quelle umane molto prima del raggiungimento di una intelligenza generale avanzata. Tradotto: sistemi capaci di influenzare opinioni, scelte e comportamenti con un’efficacia senza precedenti. In un ecosistema guidato dal profitto, questa non è una curiosità tecnica, ma una leva commerciale di valore straordinario.

Immaginiamo, allora, cosa significhi concretamente un algoritmo in grado di adattare il messaggio in tempo reale allo stato emotivo dell’utente, di anticiparne le resistenze, di colpire con precisione i suoi punti deboli. Non serve evocare complotti o malvagità assolute. È sufficiente osservare le regole del gioco: se un prodotto che crea dipendenza o orienta le decisioni genera più ricavi di uno progettato per rispettare l’autonomia individuale, la direzione del mercato è scontata. Non per cattiveria, ma per struttura.

È qui che la retorica dell’innovazione rischia di ridursi a una foglia di fico. Parlare di linee guida etiche volontarie, di autoregolamentazione, di buone intenzioni, suona come un copione già visto. Lo abbiamo letto nei dossier delle aziende farmaceutiche, lo abbiamo ascoltato nelle audizioni parlamentari, lo abbiamo pagato sulla pelle dei più fragili. Riproporlo oggi, nell’era degli algoritmi, significa accettare consapevolmente il rischio di una nuova crisi — questa volta psicologica e sociale.

Siamo di fronte a un bivio storico. Da un lato, la scelta di trattare l’intelligenza artificiale come una merce qualsiasi, lasciando che la logica del rendimento plasmi strumenti capaci di entrare nelle nostre menti. Dall’altro, una decisione politica e culturale: porre limiti chiarivincolantinon negoziabili. Non per fermare il progresso, ma per impedirgli di trasformarsi in un’arma contro chi dovrebbe servire.

L’etica non può essere un accessorio di marketing, né una nota a margine nei report aziendali. Deve tradursi in normecontrolliresponsabilità. Deve rimettere al centro la dignità dell’essere umano, la sua autonomia decisionale, il diritto a non essere manipolato. In caso contrario, tra qualche anno, guarderemo a questa fase con lo stesso imbarazzo storico con cui oggi rileggiamo alcune pagine dell’industrializzazione: come a un disastro annunciato, l’essere umano sacrificato, ancora una volta, sull’altare del profitto.

Andrea Caldart

Fuori dal Silenzio

SatiQweb

dott. berardi domenico specialista in oculistica pubblicità