L’intelligenza artificiale ci può portare verso l’autodistruzione

Vinci tutto supernealotto e giochi Sisal

L'intelligenza artificiale ci può portare verso l'autodistruzione
L'intelligenza artificiale ci può portare verso l'autodistruzione
Condividi l'Articolo
RSS
Twitter
Visit Us
Follow Me
INSTAGRAM

Droni, robot, intelligenza artificiale. La guerra alla sua terza rivoluzione. Dopo polvere da sparo e nucleare, è il tempo delle armi autonome. Usa in prima fila, ma anche Cina e Russia

Nascosti in piccole basi militari, senza equipaggio, saranno pronti a decollare, a scansionare ogni singolo chilometro del territorio, ad analizzare le immagini che raccolgono, a identificare e colpire ogni “attività nemica”, si tratti di armi, di soldati, di terroristi.

Saranno in grado di capire se nell’obiettivo preso di mira ci siano o meno civili innocenti, potranno sparare missili ad alta precisione, confermare in tempo reale la distruzione (o l’uccisione) del ‘nemico’. Per poi tornare alla base senza che sia necessario alcun intervento umano. Le guerre del prossimo futuro si faranno con l’Intelligenza Artificiale. Droni, truppe ed armamenti saranno in prevalenza robot dotati di tecnologia sofisticata, in grado di decidere in modo ‘autonomo’ e in pochi centesimi di secondo cosa fare. Robot che diventeranno sempre più intelligenti, più precisi, più veloci e più economici, auto-perfezionandosi con la stessa rapidità con cui sta avanzando l’intelligenza artificiale.

American soldier in headquarter control center
American soldier in headquarter control center

Capofila di questa ‘rivoluzione della guerra’ sono gli Stati Uniti, prima potenza militare, tecnologica ed economica del pianeta, ma anche Cina e Russia (e altri paesi in misura minore) stanno investendo massicciamente nell’uso dell’intelligenza artificiale in campo militare. Il Pentagono già spende oltre un miliardo di dollari all’anno per l’Intelligenza Artificiale, cifra che include solo le spese dei bilanci rilasciati pubblicamente dal ministero della Difesa Usa. Altri fondi arrivano da quel 10 per cento di budget del Pentagono che è coperto dal segreto, altri ancora (per centinaia di milioni di dollari) dai conti di diverse agenzie federali.

Si punta molto sui droni, che come per l’aviazione tradizionale sono e saranno determinanti per decidere le sorti di una guerra moderna, ma le forze armate americane hanno già schierato anche navi ‘autonome’ per la ricerca di sottomarini e missili di piccole dimensioni in grado di trovare e distruggere carri armati. La Cina ha testato lanciarazzi mobili guidati da intelligenza artificiale, sottomarini e altre armi segrete attualmente in fase di sviluppo, la Russia punta sui carri armati e sui missili, Turchia, Israele ed Iran stanno accelerando la conversione robotica per diventare la prima potenza a sfruttare l’intelligenza artificiale in una delle aree a più alto rischio di guerre locali del mondo.

Le armi autonome sono la terza grande rivoluzione nella storia dei conflitti dopo la polvere da sparo e le armi nucleari. Non sono una novità assoluta perché da decenni sono state usate armi che cercano obiettivi senza diretto controllo umano (i siluri Usa contro gli U-Boot tedeschi i primi) ma quello che è diverso nei sistemi di armi guidati dall’intelligenza artificiale è la natura e il potere del software decisionale. Fino a poco tempo fa tutti i programmi per computer che venivano inseriti nel sistema di controllo di un’arma dovevano essere scritti da programmatori umani, fornendo indicazioni passo dopo passo per eseguire compiti semplici e limitati. Oggi, il software si basa su algoritmi di “apprendimento automatico” che scrivono il proprio codice dopo aver analizzato migliaia di esempi reali (missioni portate a termine ma anche insuccessi) e che non assomiglia affatto alla programmazione convenzionale dei computer militari. Le armi autonome convenzionali devono essere puntate su obiettivi nemici isolati o facilmente riconoscibili, le armi IA possono essere lasciate libere di sorvegliare o dare la caccia a quasi ogni tipo di obiettivo, decidendo da sole quale attaccare e quando.

È quest’ultimo punto quello che più preoccupa scienziati, analisti politici e militanti per i diritti umani. Diversi tra loro ritengono i prossimi nuovi arsenali troppo vulnerabili agli errori e agli hacker, cosa che finirebbe per minacciare persone innocenti. Per altri lasciare che le macchine inizino attacchi mortali da sole non è etico e pone un rischio morale inaccettabile. Altri ancora temono che le armi IA diano alle cosiddette “nazioni canaglia” e alle organizzazioni terroristiche la possibilità di modificare a loro vantaggio l’equilibrio globale del potere, portando a più conflitti (potenzialmente coinvolgendo armi nucleari) e più guerre.

ZHOUSHAN, CHINA - APRIL 22, 2021 - Police patrol commandos use a drone to search the suspect area in Zhoushan, Zhejiang province, China, April 22, 2021. (Photo credit should read Costfoto/Barcroft Media via Getty Images)
ZHOUSHAN, CHINA – APRIL 22, 2021 – Police patrol commandos use a drone to search the suspect area in Zhoushan, Zhejiang province, China, April 22, 2021. (Photo credit should read Costfoto/Barcroft Media via Getty Images)

Obiezioni che negli Stati Uniti (in Cina e Russia non se le pongono proprio) i vertici delle forze armate respingono così: l’Intelligenza artificiale ha un duplice scopo, quello (ovvio) di ottenere un vantaggio militare e quello umanitario (molto più pubblicizzato) perché permetterà di evitare i “danni collaterali” che altro non sono che vittime innocenti dovute spesso ad errori umani (circa 2mila civili sono stati uccisi negli attacchi dei droni statunitensi negli ultimi venti anni, 300 di loro sono bambini, secondo il Bureau of Investigative Journalism di Londra).

Dopo il disastroso ritiro dall’Afghanistan gli Stati Uniti sono ancora più riluttanti a impegnare le proprie truppe in altri conflitti, per cui la capacità di attaccare il nemico anche da una distanza molto elevata (e senza soldati) diventa una strategia praticabile e decisiva chiunque sia adesso o nel prossimo futuro alla Casa Bianca.

Altro problema (insieme militare ed etico) è che l’Intelligenza artificiale è limitata dalla sua mancanza di ‘senso comune’ e dalla capacità di ragionamento umana. Per quanto ‘addestrata’ non potrà mai comprendere pienamente le conseguenze delle sue azioni. Se nella seconda metà del secolo scorso la guerra nucleare è stata resa impossibile grazie alla deterrenza – qualsiasi paese che inizi un primo attacco atomico rischia la reciprocità e quindi l’autodistruzione – nel caso delle armi autonome il primo attacco a sorpresa potrebbe essere ‘non tracciabile’, innescando rapidamente una risposta e un’escalation molto veloce.

Al Pentagono sono decine gli scenari che vengono ipotizzati per la prima possibile “guerra con Intelligenza Artificiale”. Scenari molto diversi tra loro con una cosa in comune: le capacità delle armi autonome saranno limitate più dalle leggi della fisica che da una carenza nei sistemi che le controllano. Come gli americani combatteranno le guerre del futuro nessuno è realmente in grado di prevederlo.

Condividi l'Articolo
RSS
Twitter
Visit Us
Follow Me
INSTAGRAM

Ricerca in Scienza @ Magia

Generic selectors
Exact matches only
Search in title
Search in content
Inviami gli Articoli in Email:

Be the first to comment

Leave a Reply

L'indirizzo email non sarà pubblicato.


*


Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.