Negli ultimi dodici mesi diverse sono le conferme arrivate sull’uso di Intelligenza Artificiale nell’ambito militare e di armi con capacità autonome nei conflitti in corso, tra cui Gaza e l’Ucraina. Mio commento per il Manifesto.
Che l’intelligenza artificiale e l’automazione dei sistemi stia diventando la grande sfida trasformativa del nostro tempo è sempre più chiaro. Lo ha dimostrato anche l’assegnazione del premio Nobel per la fisica a Geoffrey Hinton e John Hopfield per aver gettato le basi per l’apprendimento autonomo delle macchine. In pochi però sanno che proprio Hinton da tempo si è espresso anche contro l’applicazione di sistemi di intelligenza artificiale nell’ambito militare, sostenendo che il loro sviluppo e utilizzo supera una «chiara linea morale».
Non sembri fantascienza: negli ultimi dodici mesi diverse sono le conferme arrivate sull’uso di Intelligenza Artificiale nell’ambito militare e di armi con capacità autonome nei conflitti in corso, tra cui Gaza e l’Ucraina. In particolare con l’utilizzo da parte di Idf dei sistemi Lavender e Gospel per individuare edifici e persone da mettere nel mirino. Ciò ha profonde implicazioni umanitarie: accettare la disumanizzazione, l’individuazione e l’uccisione di persone da parte dell’IA in contesti militari è insostenibile e avrà conseguenze significative anche sulle attività di polizia, sul controllo delle frontiere e sulla società in generale.
Siamo dunque già in presenza dei cosiddetti killer robots? Non ancora e non del tutto, perché un minimo, pur se flebile e fragile, controllo umano permane. Ma la strada è già tracciata e sicuramente le principali potenze militari hanno deciso di percorrerla investendo sullo sviluppo di sistemi di armamento che possano arrivare alla piena automazione. Le stesse potenze che hanno cercato di boicottare tutti i percorsi internazionali che negli ultimi anni puntavano a regolamentare, se non mettere al bando, le armi letali completamente autonome.
Grazie però al lavoro della società civile (che nel 2013 ha lanciato la campagna Stop killer robots, prefigurando un pericolo da altri sottovalutato) si è di recente riscontrato un chiaro e crescente slancio verso il raggiungimento dell’obiettivo di una nuova norma internazionale sui sistemi di armi autonome. Nel 2023 la pressione sugli Stati ha portato all’adozione della prima risoluzione Onu votata da una stragrande maggioranza. Ciò dimostra che esiste una volontà politica diffusa di affrontare i rischi posti dal questi sistemi, nonostante il sabotaggio effettuato da alcuni Stati che hanno tentato di minimizzarli. Migliaia scienziati hanno firmato documenti e appelli per mettere in guardia la politica, sottolineando che quello dell’IA è il «momento progetto Manhattan» della nostra generazione.
Un anno fa il segretario generale Onu Guterres e la presidente del Comitato internazionale della Croce rossa Mirjana Spoljaric Egger e quest’anno Papa Francesco al G7 hanno evidenziato le problematiche umanitarie ed etiche e si è quindi giunti poche settimane fa a un Report formale in ambito Nazioni unite. Nell’Assemblea generale attualmente in corso gli Stati hanno un’opportunità concreta di rispondere agli appelli degli esperti di IA e colmare il divario tra regolamentazione e sviluppo tecnologico sostenendo una risoluzione sulle armi autonome promossa da Austria, Belgio, Nuova Zelanda e Costa Rica, tra gli altri. Primo vero tentativo di messa al bando contrastato dalle grandi potenze militari e dai loro alleati come l’Italia, che non stanno avendo il coraggio di bloccare l’apertura di questo nuovo vaso di Pandora armato. Per tali motivi è fondamentale approfondire il tema, e verrà fatto oggi alla Sapienza di Roma nel Convegno «Intelligenza delle macchine e follia della guerra. Le armi letali autonome» promosso da Archivio disarmo e Rete pace disarmo alla vigilia dell’assegnazione alla Campagna Stop Killer Robots del premio Colombe d’oro per la Pace.
È tempo che la comunità globale agisca con urgenza e dimostrando quella leadership politica che possa garantire che le decisioni di vita o di morte non siano delegate alle macchine.