Il sistema inventato dagli scienziati per ammonirci su quanto tempo manchi all’umanità per l’estinzione
Articolo di Claudio Laugeri per La Stampa
Un secondo perso negli ultimi due anni. Non è poco in un quadrante dove le lancette furono impostate alle 23,53 nel 1947, nella speranza che non arrivassero mai a segnare la mezzanotte. L’ora dell’Apocalisse. Di qui, il nome di quel monito virtuale voluto dal Comitato per la scienza e la sicurezza del Bulletin of the atomic scientists dell’Università di Chicago, organizzazione di scienziati al servizio della pace fondata nel 1945 da Albert Einstein. In 77 anni, le lancette non erano mai arrivate così vicine all’inimmaginabile. Nella seconda parte del primo mese di ogni anno, il Comitato «ammonisce» su quanto tempo manca all’umanità per l’estinzione. Per mano propria, con guerre nucleari o pesanti impatti sui cambiamenti climatici. O per effetto di epidemie, che in un mondo sempre più globale ci mettono ben poco a diventare pandemie.
Le minacce
Dal 2023, le lancette erano ferme a 90 secondi dalla mezzanotte. Poi, lo scatto in avanti. «Continuare ciecamente sulla strada attuale è una forma di follia. Stati Uniti, Cina e Russia hanno il potere collettivo di distruggere la civiltà e la responsabilità primaria di riportare il mondo indietro dall’orlo del baratro, e possono farlo se i loro leader iniziano seriamente a discutere in buona fede delle minacce globali», argomenta il Comitato presieduto dal fisico Daniel Holz, dell’Università di Chicago, affiancato da personaggi del calibro del Nobel per la Pace Juan Manuel Santos e del fisico Robert Socolow, professore emerito dell’Università di Princeton. Il pericolo della guerra, certo. Gli arsenali. Ma anche l’attacco all’ambiente: «La crescita dell’energia solare ed eolica è stata impressionante, ma rimane insufficiente per stabilizzare il clima».
Il ruolo dell’intelligenza artificiale
C’è poi un altro aspetto ad impensierire gli osservatori. E’ «l’utilizzo dell’intelligenza artificiale in campo militare – spiega Francesco Vignarca , Coordinatore delle campagne “Rete Italiana Pace” e Disarmo” -. Abbiamo avuto l’esempio in Israele, dove vengono utilizzati gli insiemi di algoritmi denominati “Lavender” e “Gospel”. Sono intelligenze artificiali istruite per riconoscere e valutare le minacce terroristiche, per organizzare una risposta in modo quasi del tutto autonomo, accettando anche una quota di “effetti collaterali” letali fra i civili. L’ultima parola spetta sempre all’uomo, ma quel decisore ha soltanto 20 secondi per esprimersi. Per noi, non è un controllo significativo». E questo pare essere un problema ancora più grave rispetto alla minaccia di una guerra nucleare, che distruggerebbe il pianeta, ma proprio per questo non favorirebbe nessuna fra le parti in conflitto. Entro poco tempo, l’intelligenza artificiale per manovrare armi di vario genere potrà avere prezzi abbordabili per qualsiasi «signore della guerra», per non parlare dei «piccoli Stati che avrebbero la possibilità di contrastare anche forze numericamente molto superiori». «Chiediamo un trattato anche su questo – aggiunge Vignarca -. Il controllo deve sempre essere dell’uomo, ma deve anche avvenire in modo significativo. Deve esserci il tempo di valutare, di capire, di distinguere. Questo compito non può essere delegato alle macchine, l’intelligenza artificiale non deve poter agire in autonomia».