Intelligenza artificiale e rischio nucleare

Nel dibattito pubblico, e anche sui media, si sente spesso paragonare la nuova tensione internazionale tra potenze alla Guerra fredda. In realtà il sistema internazionale odierno sembra prendere più una forma multipolare, mentre la Guerra Fredda conclusasi con la fine dell’Impero sovietico era caratterizzata soprattutto dal bipolarismo Usa-Urss. Per approfondire il confronto tra ieri e oggi e conoscere le cause della fine della Guerra Fredda dopo il crollo del muro di Berlino, abbiamo incontrato Leopoldo Nuti, professore ordinario di Storia delle Relazioni internazionali all’Università Roma Tre e grande studioso della Guerra fredda e della deterrenza atomica.

https://www.sipri.org/publications/2019/other-publications/impact-artificial-intelligence-strategic-stability-and-nuclear-risk-volume-i-euro-atlantic

https://sipri.org/publications/2019/other-publications/impact-artificial-intelligence-strategic-stability-and-nuclear-risk-volume-ii-east-asian

https://sipri.org/publications/2020/other-publications/impact-artificial-intelligence-strategic-stability-and-nuclear-risk-volume-iii-south-asian

Come l’intelligenza artificiale potrebbe aumentare il rischio di guerra nucleare

Panoramica

L’intelligenza artificiale potrebbe ribaltare i concetti di deterrenza nucleare che hanno contribuito a salvare il mondo dalla guerra nucleare dal 1945? Gli straordinari progressi nell’IA, insieme a una proliferazione di droni, satelliti e altri sensori, aumentano la possibilità che i paesi possano trovare e minacciare le forze nucleari a vicenda, aumentando le tensioni.

Il tenente colonnello Stanislav Petrov si è sistemato sulla sedia del comandante in un bunker segreto fuori Mosca. Il suo lavoro quella notte era semplice: monitorare i computer che stavano setacciando i dati satellitari, controllando gli Stati Uniti per qualsiasi segno di lancio di missili. Era appena passata la mezzanotte, il 26 settembre 1983.

Una sirena risuonò dalle pareti del bunker. Una sola parola balenò sullo schermo davanti a lui. “Lanciare.”

La paura che i computer, per errore o per malizia, possano portare l’umanità sull’orlo dell’annientamento nucleare ha perseguitato l’immaginazione sin dai primi giorni della Guerra Fredda.

Il pericolo potrebbe presto essere più la scienza che la finzione. I progressi sbalorditivi nell’intelligenza artificiale hanno creato macchine in grado di apprendere e pensare, provocando una nuova corsa agli armamenti tra le principali potenze nucleari del mondo. Non sono i robot assassini dei blockbuster di Hollywood di cui dobbiamo preoccuparci; è così che i computer potrebbero sfidare le regole di base della deterrenza nucleare e portare gli esseri umani a prendere decisioni devastanti.

Questa è la premessa alla base di un nuovo documento di RAND Corporation, How Might Artificial Intelligence Infect the Risk of Nuclear War? Fa parte di un progetto speciale all’interno di RAND, noto come Security 2040 , per guardare oltre l’orizzonte e anticipare le minacce in arrivo.

“Questo non è solo uno scenario cinematografico”, ha detto Andrew Lohn , un ingegnere di RAND che è stato coautore del documento e la cui esperienza con l’IA include il suo utilizzo per indirizzare i droni, identificare i richiami delle balene e prevedere i risultati dei giochi NBA. “Le cose relativamente semplici possono aumentare la tensione e portarci in posti pericolosi se non stiamo attenti”.

Glitch o Armageddon?

Petrov avrebbe detto più tardi che la sua sedia sembrava una padella. Sapeva che il sistema informatico aveva dei difetti. I sovietici, preoccupati di restare indietro nella corsa agli armamenti con gli Stati Uniti, l’avevano messa in servizio di corsa solo mesi prima. Il suo schermo ora leggeva “alta affidabilità”, ma l’istinto di Petrov diceva il contrario.

Prese il telefono al suo ufficiale di servizio. “Falso allarme”, ha detto. All’improvviso, il sistema ha lampeggiato con nuovi avvisi: un altro lancio, poi un altro e poi un altro. Le parole sullo schermo si illuminarono di rosso: “Attacco missilistico.”

Per capire come i computer intelligenti potrebbero aumentare il rischio di una guerra nucleare, devi capire un po ‘perché la Guerra Fredda non è mai diventata calda. Ci sono molte teorie, ma la “ritorsione assicurata” è sempre stata uno dei cardini. In termini più semplici, significa: se mi prendi a pugni, ti risponderò. Con le armi nucleari in gioco, quel contropiede poteva spazzare via intere città, una perdita che nessuna delle due parti era disposta a rischiare.

I sistemi autonomi non hanno bisogno di uccidere le persone per minare la stabilità e rendere più probabile una guerra catastrofica.

Questa teoria porta ad alcune conclusioni apparentemente controintuitive. Se entrambe le parti hanno armi in grado di sopravvivere a un primo colpo e reagire, la situazione è stabile. Nessuna delle due parti rischierà di tirare quel primo pugno. La situazione diventa più pericolosa e incerta se una parte perde la sua capacità di contrattaccare o anche solo pensa che potrebbe perdere quella capacità. Potrebbe rispondere creando nuove armi per riguadagnare il suo vantaggio. Oppure potrebbe decidere di dover tirare i pugni in anticipo, prima di essere colpito per primo.

È qui che potrebbe risiedere il vero pericolo dell’IA. I computer possono già scansionare migliaia di foto di sorveglianza, alla ricerca di modelli che un occhio umano non vedrebbe mai. Non ci vuole molta immaginazione per immaginare un sistema più avanzato che includa feed di droni, dati satellitari e persino post sui social media per sviluppare un quadro completo delle armi e delle difese di un avversario.

Un sistema che può essere ovunque e vedere tutto potrebbe convincere un avversario che è vulnerabile a un primo colpo disarmante, che potrebbe perdere il suo contropiede. Quell’avversario si affretterebbe a trovare nuovi modi per livellare nuovamente il campo, con qualsiasi mezzo necessario. Quella strada porta più vicino alla guerra nucleare.

“I sistemi autonomi non hanno bisogno di uccidere le persone per minare la stabilità e rendere più probabile una guerra catastrofica”, ha detto Edward Geist , ricercatore associato di politica presso RAND, specialista in sicurezza nucleare e coautore del nuovo articolo. “Le nuove capacità di intelligenza artificiale potrebbero far pensare alle persone che perderanno se esitano. Ciò potrebbe dare loro un grilletto più pruriginoso. A quel punto, l’intelligenza artificiale renderà la guerra più probabile anche se gli umani hanno ancora il controllo delle citazioni”.

Una sensazione viscerale

Lo schermo del computer di Petrov ora mostrava cinque missili lanciati verso l’Unione Sovietica. Le sirene gemettero. Petrov teneva il telefono all’ufficiale di servizio in una mano, un citofono alla sala computer nell’altra. I tecnici gli stavano dicendo che non potevano trovare i missili sui loro schermi radar o telescopi.

Non aveva alcun senso. Perché gli Stati Uniti dovrebbero iniziare una guerra nucleare con solo cinque missili? Petrov alzò il telefono e disse di nuovo: Falso allarme.

I computer ora possono insegnare a se stessi a camminare, inciampando, cadendo, ma imparando finché non lo fanno bene. Le loro reti neurali imitano l’architettura del cervello. Un computer ha recentemente battuto uno dei migliori giocatori del mondo nell’antico gioco di strategia di Go con una mossa così aliena, eppure così efficace, che il giocatore umano si è alzato, ha lasciato la stanza e poi ha impiegato 15 minuti per fare la sua prossima mossa.

La Russia ha recentemente annunciato piani per un drone sottomarino del giorno del giudizio con una testata abbastanza potente da vaporizzare una grande città.

Il potenziale militare di tale superintelligence non è passato inosservato alle maggiori potenze nucleari del mondo. Gli Stati Uniti hanno sperimentato barche autonome in grado di seguire un sottomarino nemico per migliaia di miglia. La Cina ha dimostrato algoritmi di “swarm intelligence” che possono consentire ai droni di cacciare in branco. E la Russia ha recentemente annunciato piani per un drone sottomarino del giorno del giudizio che potrebbe guidarsi attraverso gli oceani per fornire una testata nucleare abbastanza potente da vaporizzare una grande città.

Chiunque vinca la corsa alla superiorità dell’IA, ha detto il presidente russo Vladimir Putin, “diventerà il dominatore del mondo”. Il fondatore di Tesla Elon Musk aveva una visione diversa: la corsa alla superiorità dell’IA, ha avvertito, è la causa più probabile della terza guerra mondiale.

Il momento della verità

Per alcuni terrificanti momenti, Stanislav Petrov rimase sull’orlo di una guerra nucleare. A metà del 1983, l’Unione Sovietica era convinta che gli Stati Uniti stessero preparando un attacco nucleare. Il sistema informatico rosso davanti a lui era la sua polizza assicurativa, uno sforzo per assicurarsi che se gli Stati Uniti avessero colpito, l’Unione Sovietica avrebbe avuto il tempo di contrattaccare.

Ma quella notte aveva interpretato male la luce del sole che scintillava sulle cime delle nuvole.

“Falso allarme.” L’ufficiale di servizio non ha chiesto spiegazioni. Riportò il messaggio di Petrov lungo la catena di comando.

Stanislaw Petrow, 2016. Photo by Queery-54/CC BY-SA 4.0

La prossima generazione di IA avrà “un potenziale significativo” per minare le basi della sicurezza nucleare, hanno concluso i ricercatori. È giunto il momento del dialogo internazionale.

Mantenere la pace nucleare in un momento di tali progressi tecnologici richiederà la cooperazione di ogni potenza nucleare. Richiederà nuove istituzioni e accordi globali; nuove intese tra stati rivali; e nuove garanzie tecnologiche, diplomatiche e militari.

È possibile che un futuro sistema di intelligenza artificiale possa dimostrarsi così affidabile, così freddamente razionale, da riavvolgere le lancette dell’orologio del giorno del giudizio nucleare. Errare è umano, dopotutto. Una macchina che non commette errori, non sente pressione e non ha pregiudizi personali potrebbe fornire un livello di stabilità che l’era atomica non ha mai conosciuto.

Quel momento è ancora lontano nel futuro, hanno concluso i ricercatori, ma gli anni tra oggi e allora saranno particolarmente pericolosi. Più nazioni dotate di armi nucleari e una maggiore dipendenza dall’IA, soprattutto prima che sia tecnologicamente matura, potrebbero portare a calcoli catastrofici. E a quel punto, potrebbe essere troppo tardi per un tenente colonnello che fa il turno di notte per fermare la macchina da guerra.

La storia del confronto di Stanislav Petrov con il disastro nucleare mette in guardia una nuova generazione sulle responsabilità di inaugurare un cambiamento tecnologico profondo e potenzialmente destabilizzante. Petrov, morto nel 2017, ha detto semplicemente: “Siamo più saggi dei computer”, ha detto. “Li abbiamo creati.”

Cosa può riservare il futuro: tre prospettive

Illustrazioni di bubaone/Getty Images e jolygon/Adobe Stock. Design di Chara Williams/RAND Corporation

I ricercatori RAND hanno riunito alcuni dei massimi esperti di intelligenza artificiale e strategia nucleare per una serie di seminari. Hanno chiesto agli esperti di immaginare lo stato dei sistemi di armi nucleari nel 2040 e di esplorare i modi in cui l’intelligenza artificiale potrebbe essere una forza stabilizzatrice o destabilizzante a quel punto.

Prospettiva Uno Scetticismo sulla tecnologia

Molti degli esperti di intelligenza artificiale erano scettici sul fatto che la tecnologia sarebbe arrivata abbastanza lontano da quel momento per svolgere un ruolo significativo nelle decisioni nucleari. Dovrebbe superare la sua vulnerabilità all’hacking, così come gli sforzi avversari per avvelenare i suoi dati di addestramento, ad esempio comportandosi in modi insoliti per creare falsi precedenti.

Prospettiva Due Le tensioni nucleari aumenteranno

Ma un sistema di intelligenza artificiale non avrebbe bisogno di funzionare perfettamente per aumentare le tensioni nucleari, hanno risposto gli strateghi nucleari. Un avversario dovrebbe solo pensare di sì e rispondere di conseguenza. Il risultato sarebbe una nuova era di concorrenza e sfiducia tra i rivali con armi nucleari.

Prospettiva Tre L’ IA impara che la mossa vincente è non giocare

Alcuni degli esperti sperano che l’IA possa un giorno, in un lontano futuro, diventare così affidabile da scongiurare la minaccia di una guerra nucleare. Potrebbe essere utilizzato per monitorare lo sviluppo nucleare e assicurarsi che i paesi rispettino gli accordi di non proliferazione, ad esempio. Oppure potrebbe salvare gli esseri umani da errori e decisioni sbagliate prese sotto la pressione di una situazione di stallo nucleare. Come ha detto un esperto, un’intelligenza artificiale futura potrebbe concludere, come il computer nel film del 1983 “WarGames”, che l’unica mossa vincente nella guerra nucleare è non giocare.

FONTE

Fonti:

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo di WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione /  Modifica )

Google photo

Stai commentando usando il tuo account Google. Chiudi sessione /  Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione /  Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione /  Modifica )

Connessione a %s...

<span>%d</span> blogger hanno fatto clic su Mi Piace per questo: