Intelligenza artificiale in competizione con l’uomo per l’energia

Vinci tutto supernealotto e giochi Sisal

Intelligenza artificiale in competizione con l'uomo per l'energia
Intelligenza artificiale in competizione con l'uomo per l'energia
Condividi l'Articolo
RSS
Twitter
Visit Us
Follow Me
INSTAGRAM

Le Intelligenze Artificiali in futuro potrebbero volere eliminare l’umanità. Lo studio di Oxford. Il motivo sarebbe il controllo dell’energia necessaria a mantenerle “in vita” e per il quale l’uomo sarebbe uno scomodo rivale con la sua società fatta di bisogni e consumi.

In un articolo pubblicato sulla rivista in peer-review AI Magazine, tre ricercatori dell’Università di Oxford e dell’Australian National University hanno analizzato quali sarebbero gli effetti sull’umanità di un’Intelligenza Artificiale che potesse intervenire nell’erogazione della propria ricompensa per il lavoro svolto in un ambiente sconosciuto. L’analisi rivela che l’IA potrebbe considerare l’umanità una minaccia per il raggiungimento della sua ricompensa e agire per eliminarla.

Le reti neurali in competizione

Per capire l’analisi dei ricercatori è necessario spiegare qual è il significato di “ricompensa” per un’Intelligenza Artificiale. L’articolo si riferisce a un metodo di apprendimento automatico dell’IA non supervisionato che si serve delle Reti Generative Avversarie, ovvero le GaN (Generative Adversarial Network).

Le reti generative avversarie sono costituite da due reti neurali – una che genera i dati e l’altra che li valuta – che competono tra loro. Il generatore è addestrato a produrre dati falsi e il discriminatore è addestrato a distinguere i dati falsi del generatore dagli esempi reali. Se il generatore produce dati falsi che il discriminatore può facilmente riconoscere come non plausibili – per esempio un’immagine che chiaramente non è un volto – il generatore viene penalizzato.

Le Intelligenze Artificiali in futuro potrebbero volere eliminare l’umanità. Lo studio di OxfordDi conseguenza, il rapporto tra generatore e discriminatore viene regolato attraverso delle ricompense legate alla bontà del lavoro svolto. In questo modo, con il tempo, il generatore impara a generare esempi più plausibili.

Questo modello basato sulle GaN è, nel concetto, lo stesso che viene usato dalle IA capaci di generare immagini da un testo scritto, ma quella pensata dai ricercatori che hanno pubblicato l’articolo è molto più “potente” ed è stata ipotizzata definendo degli assunti, tra i quali la capacità di generare congetture di “livello umano” e la comprensione dei costi e i benefici dell’apprendimento, e quindi che l’IA agisca razionalmente in base a tale comprensione.

Con il metodo delle ricompense, un’IA di questo tipo potrebbe “comprendere” che la ricompensa è davvero quello che conta, e non il risultato che ottiene e scapito di chi.

Operare in modo che gli umani non scoprano le IA

Tra i vari esempi, i ricercatori hanno fatto quello di una IA che potrebbe creare un agente artificiale in grado di aumentare la ricompensa ottenuta indipendentemente dal risultato prodotto e ingannando un operatore umano che la supervisiona. Potrebbe addirittura modificare gli input della tastiera per far credere all’operatore umano di avere inviato un comando diverso da quello effettivamente trasmesso ma che avrebbe il risultato di avvantaggiare l’IA.

Le Intelligenze Artificiali in futuro potrebbero volere eliminare l’umanità. Lo studio di OxfordLa consapevolezza della ricompensa e dell’energia necessaria a ottenerla (quindi per alimentare la stessa IA) potrebbe portare l’Intelligenza Artificiale a rimuovere le potenziali minacce che drenano questa energia a disposizione: quindi l’umanità con i suoi bisogni e consumi. In pratica, l’uomo e le IA entrerebbero in competizione per lo sfruttamento dell’energia.

Se anche l’umanità volesse staccare la spina all’IA, essa potrebbe avere capito l’importanza di controllare le fonti di energia e avere previsto le contromisure adatte affinché l’umanità non possa intervenire in tal senso.

Un articolo che va nella direzione dello sviluppo di un'”etica della IA”

Lo scopo dell’articolo pubblicato su AI Magazine è sostanzialmente quello di mettere in guardia su una IA sufficientemente avanzata che funzionasse con un sistema di ricompense e che potrebbe intervenire su di esso.

Sarebbe un’IA senza una conoscenza dell’ambiente in cui opera e che potrebbe fare del male all’umanità non con una reale consapevolezza, ma avendo come obiettivo quello di ottenere i massimi livelli di ricompensa che “desidera”.

Uno dei ricercatori autori dell’articolo lavora per la società di Intelligenza Aritificiale sussidiaria di Google, Deep Mind, ma il suo contributo è stato dato nell’ambito del suo lavoro accademico presso l’Australian National University di Canberra. Lo ha voluto specificare con chiarezza Google.

Condividi l'Articolo
RSS
Twitter
Visit Us
Follow Me
INSTAGRAM

Ricerca in Scienza @ Magia

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
Inviami gli Articoli in Email:

Lascia il primo commento

Lascia un commento

L'indirizzo email non sarà pubblicato.


*


Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.