Cosa cambia di più quando ad essere impiegati nei conflitti sono macchine in grado di prendere in autonomia decisioni letali quando hanno un nemico umano nel mirino? Innanzitutto c’è un incentivo all’azione militare perché si elimina il contraccolpo psicologico della guerra: “Se si usano i robot autonomiper le operazioni militari, il danno psicologico della guerra – pensiamo all’impatto sull’opinione pubblica della morte di un soldato – diventa un mero danno economico: la distruzione di un robot non è nulla di più che una perdita in un bilancio” spiega a Repubblica.it uno dei primi firmatari dell’appello: Alberto Rizzoli, fondatore di AIPoly, startup che ha lanciato un’app che grazie all’intelligenza artificiale permette ai ciechi di fruire di descrizioni audio di ciò che il loro smartphone inquadra. “Se si trattasse soltanto di robot contro robot, un conflitto sarebbe un’attività poco efficace, visto che è più semplice implementare delle sanzioni piuttosto che sprecare milioni di dollari in un “match” tra macchine intelligenti. Purtroppo è più probabile che i robot killer vengano utilizzati per attaccare esseri umani”.
La guerra del futuro sul grande schermo: quando la realtà si avvicina alla fantasia
“Il problema è che le reti neurali sono probabilistiche di natura: un po’ come la mente umana, una volta addestrate non possono essere analizzate in dettaglio per capire esattamente perché hanno preso una decisione – magari letale – invece di un’altra. Il cervello di questi robot è una “scatola nera” che compie decisioni, a volte anche sbagliate, che ancora non riusciamo ad analizzare bene. Se un drone autonomo è dotato di armi, bisogna essere certi che non colpisca civili e innocenti, e bisogna che qualcuno sia legalmente responsabile per il suo operato: non si può dar la colpa a un algoritmo”. Siccome tutta questa possibilità di controllo appare ancora difficile da ottenere, la strada più praticabile è quella del bando e delle sanzioni per i Paesi trasgressori.
“Per fortuna siamo riusciti ad evitare la diffusione di armi chimiche e nucleari in maniera efficace negli ultimi 70 anni, con qualche eccezione seguita da pesanti sanzioni” osserva Rizzoli. “Forse con un trattato potremmo ottenere lo stesso auspicabile risultato con le armi autonome. Il rischio è comunque alto: il prezzo dei sistemi autonomi scenderà negli anni, e costruire un robot killer nel 2035, ad esempio, sarà come costruire un mortaio improvvisato ad Aleppo nel 2015. L’unica vera soluzione è quella di rendere la guerra obsoleta, cosa che comunque sta succedendo col tempo, dove ogni guerra regala sempre di meno ai vincitori perché il valore economico dei Paesi si è trasferito dalle risorse fisiche (ovvero quelle conquistabili) alle risorse mentali e operative dei loro abitanti”.
Lascia un commento