Intelligenza Artificiale: tra illusione di onniscienza e rischio sistemico. Perché l’uomo resta insostituibile

Dietro la promessa di efficienza dell’intelligenza artificiale si nasconde un pericolo: sostituire l’uomo nei momenti decisivi significa privarsi di giudizio, empatia e capacità di interpretare il contesto — qualità che, come dimostrò Stanislav Petrov evitando la guerra nucleare del 1983, possono salvare il mondo.

di Massimo Fioranelli
Lunedì 11 Agosto 2025
Roma - 11 ago 2025 (Prima Pagina News)

Dietro la promessa di efficienza dell’intelligenza artificiale si nasconde un pericolo: sostituire l’uomo nei momenti decisivi significa privarsi di giudizio, empatia e capacità di interpretare il contesto — qualità che, come dimostrò Stanislav Petrov evitando la guerra nucleare del 1983, possono salvare il mondo.

L’intelligenza artificiale (IA) è la più rapida e pervasiva rivoluzione tecnologica della storia recente. In pochi anni, la sua diffusione ha superato quella di internet e degli smartphone, con miliardi di interazioni quotidiane e investimenti colossali da parte delle big tech.

 La narrazione dominante la descrive come una forza inevitabile, destinata a riplasmare lavoro, comunicazione, medicina e difesa.

 Ma dietro la promessa di efficienza si nascondono rischi profondi, spesso sottovalutati. La macchina eccelle nell’elaborazione rapida di dati, ma manca di ciò che rende l’essere umano un decisore responsabile: il pensiero contestuale, la capacità di sospendere il giudizio, l’empatia. Il caso di Stanislav Petrov, che nel 1983 evitò una guerra nucleare ignorando un falso allarme generato da un sistema automatizzato, è paradigmatico.

Nel pieno della Guerra Fredda, il 26 settembre 1983, l’umanità sfiorò davvero la catastrofe nucleare. In una base segreta nei pressi di Mosca, il sistema sovietico di allerta precoce rilevò, o almeno così sembrava, un attacco missilistico da parte degli Stati Uniti: cinque testate in arrivo, secondo i dati radar. I protocolli erano chiari e implacabili: reagire immediatamente, lanciare la controffensiva, dare inizio alla fine.

A presidiare quella sala di comando c’era Stanislav Petrov, un ufficiale con davanti un monitor, una scrivania e un peso immenso sulle spalle. La procedura imponeva di fidarsi delle macchine, dei calcoli, degli algoritmi che avevano “visto” i missili.

Ma Petrov decise di fidarsi del proprio giudizio. Non suonò l’allarme. Scelse di attendere. Ragionò: se gli Stati Uniti avessero voluto davvero avviare una guerra nucleare, non avrebbero iniziato con un attacco così limitato. Fu un’analisi istintiva, logica e al tempo stesso umana, intrisa di dubbio e senso delle proporzioni.

Aveva ragione: si trattava di un errore tecnico, un riflesso del sole sui sensori satellitari. Petrov valutò la sproporzione dell’attacco rilevato, considerò il contesto geopolitico e prese tempo.

Un algoritmo, addestrato a reagire in base a protocolli, avrebbe eseguito l’ordine, con conseguenze catastrofiche.

L’essere umano, a differenza della macchina, integra informazioni incomplete in un quadro più ampio, filtrandole con esperienza, intuizione e senso delle conseguenze.

 Quella decisione salvò il mondo. Un algoritmo, privo di contesto e di empatia, avrebbe eseguito l’ordine senza esitazioni. L’episodio dimostra quanto sia vitale mantenere l’essere umano al centro dei processi decisionali. Eppure, oggi ci stiamo muovendo nella direzione opposta: l’intelligenza artificiale sta assumendo un ruolo crescente nelle decisioni critiche, dalla gestione della salute pubblica al traffico aereo, dagli investimenti finanziari alle assunzioni di personale. Il pericolo non è solo teorico.

 Gli stessi sviluppatori ammettono che i modelli futuri di IA avranno capacità tecniche tali da poter fornire istruzioni per la sintesi di armi biologiche mai viste prima. Ciò significa che conoscenze letali, un tempo dominio esclusivo di laboratori militari o centri di ricerca avanzati, potrebbero essere accessibili a chiunque sappia formulare una richiesta.

 Il confine tra innovazione medica e arma biologica diventa allora sottilissimo, e l’IA – priva di morale – non distingue tra uso e abuso.

 La storia insegna che ogni tecnologia ad alto impatto trova sempre applicazioni belliche: oggi la velocità e la scalabilità dell’IA rendono questo passaggio più pericoloso che mai. Ma c’è un rischio più subdolo, ma altrettanto grave: l’erosione della capacità critica collettiva. Con l’avvento delle “AI overviews”, riassunti preconfezionati che sostituiscono la navigazione autonoma delle fonti, si perde il contatto diretto con la complessità. Non ci viene più chiesto di cercare, selezionare e collegare informazioni, ma di consumare un verdetto.

La riduzione della conoscenza a un flusso unico e centralizzato, mediato da algoritmi opachi, crea una forma di “atrofia cognitiva” che indebolisce la società nel suo complesso, rendendola più manipolabile. Gli enormi investimenti, la retorica dell’innovazione e il fascino dell’automazione alimentano l’idea che l’IA sia un processo inarrestabile e intrinsecamente positivo.

Ma la storia mostra che il progresso tecnico senza governance etica porta a distorsioni sistemiche: dalle crisi finanziarie guidate da algoritmi, agli incidenti militari sfiorati per errori di sensori, fino alla manipolazione informativa di massa. L’IA è uno strumento potente, ma non un sostituto dell’intelligenza umana.

La sua integrazione nei processi decisionali deve prevedere un “freno umano” in ogni fase critica, specialmente in ambito bellico, sanitario e infrastrutturale. Affidarsi ciecamente all’efficienza algoritmica significa rinunciare alla dimensione etica e sistemica che solo l’uomo può garantire. Come Petrov dimostrò nel 1983, l’errore di un sistema può essere corretto solo da chi è capace di dubitare.


RIPRODUZIONE RISERVATA © Copyright Prima Pagina News

’Intelligenza artificiale
PPN
Prima Pagina News
Stanislav Petrov

APPUNTAMENTI IN AGENDA

SEGUICI SU