L’intelligenza artificiale sarà un pericolo per l’umanità?

Vinci tutto supernealotto e giochi Sisal

L'intelligenza artificiale sarà un pericolo per l'umanità?
L'intelligenza artificiale sarà un pericolo per l'umanità?
Condividi l'Articolo
RSS
Twitter
Visit Us
Follow Me
INSTAGRAM

Si parla sempre più di intelligenza artificiale. Ma gli esperti di diritti umani sono preoccupati: “L’AI – si legge in un rapporto dell’Università di Cambridge – ha molte applicazioni positive, ma è una tecnologia a duplice uso e i ricercatori dovrebbero essere consapevoli del potenziale di abuso”. Droni, bot, algoritmi: le preoccupazioni degli esperti sul nostro futuro hi-tech. Cosa succede se un hacker prende il controllo di un drone? E se un algoritmo si guasta? Chi ci garantisce che l’intelligenza artificiale non sia “corruttibile”? Ecco cosa preoccupa gli esperti.

Che si tratti di algoritmi, di droni o di robot, in futuro faremo sempre più i conti con sistemi autonomi e “intelligenti”, che avranno influenza su quasi ogni aspetto delle nostre vite dal punto di vista economico, sociale e personale. Sembra inevitabile: le nuove tecnologie non fanno che progredire e diventare, per certi versi, più accessibili.

Questo comporta però anche dei rischi: sempre più osservatori si chiedono infatti, man mano che la tecnologia diventa più invasiva, che impatto potrebbe avere sui diritti umani: dal diritto alla vita alla privacy, dalla libertà di espressione ai diritti sociali ed economici. E dunque: come si possono difendere i diritti umani in un panorama tecnologico sempre più modellato dalla robotica e dall’intelligenza artificiale (AI)?

Droni killer. Studiosi come Christof Heyns, docente di diritti umani all’università di Pretoria e relatore delle Nazioni Unite, ha espresso in diverse sedi preoccupazione per le leggi, allo studio in alcuni Paesi, che permetterebbero ai droni militari di decidere autonomamente quando colpire un bersaglio, senza un controllo umano da remoto. Questo li renderebbe armi da guerra decisamente più rapide ed efficaci. «Ma, per esempio», si chiede Heyns, «un computer sarà in grado di esprimere un giudizio di valore sul fatto che un gruppo di persone in abiti semplici che portano fucili non siano combattenti nemici, ma cacciatori ? O soldati che si arrendono?”.

Anche gruppi come l’ International Committee for Robot Arms Control (ICRAC) hanno recentemente espresso la loro preoccupazione con una lettera pubblica per la partecipazione di Google a Project Maven, un programma militare che utilizza l’apprendimento automatico per analizzare i filmati di sorveglianza dei droni: le informazioni così ottenute potrebbero in teoria essere utilizzate per uccidere persone. ICRAC si è appellato a Google per garantire che i dati raccolti dai suoi utenti non vengano mai utilizzati a scopi militari, affiancandosi così alle proteste dei dipendenti della grande G per il coinvolgimento della società nel progetto. Google ha comunque poi annunciato che non rinnoverà il suo contratto.

Algoritmi razzisti e sessisti. Se da un lato la recente controversia relativa alla raccolta di dati personali da parte di Cambridge Analytica attraverso l’uso di piattaforme di social media come Facebook continua a causare apprensione per manipolazioni e interferenze in occasioni di elezioni, dall’altro gli analisti di dati mettono in guardia su pratiche discriminatorie associate a quello che chiamano il “problema dei bianchi” dell’intelligenza artificiale: i sistemi di AI attualmente in uso, infatti, sarebbero addestrati sui dati esistenti che replicherebbero gli stereotipi razziali e di genere e perpetuando pratiche discriminatorie in ambiti come la sicurezza, le decisioni giudiziarie o nella ricerca del lavoro.

Trasformare i droni commerciali in armi: secondo gli esperti è uno dei rischi, legati all'uso distorto della tecnologia, con cui saremo chiamati a misurarci. | Shutterstock
Trasformare i droni commerciali in armi: secondo gli esperti è uno dei rischi, legati all’uso distorto della tecnologia, con cui saremo chiamati a misurarci. | Shutterstock

La ricercatrice di Harvard, Cathy O’Neil ha messo in fila nel libro Armi di distruzione matematica (Mondadori) una lunga serie di casi in cui gli algoritmi matematici non sono così obiettivi, ma mostrano preferenze: dagli algoritmi usati nell’alta finanza a quelli che misurano la probabilità che un individuo possa ricadere in comportamenti criminali, O’Neil ritiene che, a parità di condizioni, gli algoritmi privilegino i bianchi di sesso maschile. E non è l’unica a pensarla così.

Secondo lo psicologo Thomas Hill, tra i maggiori studiosi al mondo del rapporto tra psicologia e big data, gli algoritmi soffrirebbero addirittura di veri e propri disturbi mentali. Lo ha scritto in un suo saggio pubblicato da Aeon, dove sostiene che questo accade a causa del modo in cui sono costruiti. Possono per esempio dimenticare cose vecchie, quando apprendono nuove informazioni e soffrire del cosiddetto “oblio catastrofico”, in cui l’intero algoritmo non può più imparare o ricordare nulla.

Incubi digitali. La potenziale minaccia delle nuove tecnologie ai diritti umani e alla sicurezza fisica, politica e digitale è stata evidenziata dall’Università di Cambridge in uno studio sull’uso dannoso dell’intelligenza artificiale: 26 esperti di sicurezza delle tecnologie emergenti hanno pubblicato un rapporto sull’uso dell’intelligenza artificiale (AI) da parte di “Stati canaglia”, criminali e terroristi. La preoccupazione è che la crescita della criminalità informatica nel prossimo decennio sia inarrestabile. E che un uso sempre maggiore di “bot”, possa arrivare a manipolare qualsiasi cosa, dalle elezioni all’agenda dei notiziari e ai social media.

Tutto questo richiede, secondo i ricercatori, attenzione e intervento dei politici: “L’AI – si legge – ha molte applicazioni positive, ma è una tecnologia a duplice uso e i ricercatori e gli ingegneri dell’intelligenza artificiale dovrebbero essere consapevoli del potenziale di abuso”.

Gli autori provengono da organizzazioni come: il Future of Humanity Institute della Oxford University, il centro per lo studio del rischio esistenziale dell’Università di Cambridge, la compagnia di ricerca di intelligenza artificiale senza scopo di lucro OpenAI, la Electronic Frontier Foundation e altre organizzazioni. Il rapporto di 100 pagine identifica tre domini di sicurezza (sicurezza digitale, fisica e politica) come particolarmente rilevanti.

Tra i pericoli con cui potremmo confrontarci in futuro, si sarebbero nuovi attacchi informatici come l’hacking automatizzato, e-mail spam mirate con precisione utilizzando le nostre informazioni raccolte sui social network o sfruttando le vulnerabilità dei sistemi di intelligenza artificiale stessi. C’è chi potrebbe trasformare droni commerciali in armi, mentre in politica, qualcuno potrebbe manipolare l’opinione pubblica, con una propaganda mirata e fake news, raggiungendo livelli di efficacia finora inimmaginabili. E non solo.

Uno scenario distopico? Non secondo Seán Ó hÉigeartaigh, direttore esecutivo del Centro per lo studio del rischio esistenziale dell’Università di Cambridge, che ha dichiarato: «L’intelligenza artificiale è un punto di svolta e questo rapporto ha immaginato come potrebbe apparire il mondo nei prossimi cinque o dieci anni. Viviamo in un mondo che potrebbe diventare irto di pericoli quotidiani dall’uso improprio di AI e dobbiamo assumerci la responsabilità dei problemi – perché i rischi sono reali. Ci sono scelte che dobbiamo fare ora».

Condividi l'Articolo
RSS
Twitter
Visit Us
Follow Me
INSTAGRAM

Ricerca in Scienza @ Magia

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
Inviami gli Articoli in Email:

Lascia il primo commento

Lascia un commento

L'indirizzo email non sarà pubblicato.


*


Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.