Da molti anni ormai stiamo assistendo allo sviluppo di algoritmi in grado di pensare e ragionare come un essere umano, o quasi. E potrebbe apparire quanto mai singolare il fatto che una gran parte delle ricerche si sia avvalsa dei risultati sperimentali ottenuti da super computer come Deep Blue, sviluppato dalla IBM e Alpha GO della britannica Deep Mind, che dal 2014 è stata acquistata da Google. Non da ultimo il software Libratus ideato dai ricercatori della Carnegie Mellon University, in Pennsylvania.
Tutti questi algoritmi hanno qualcosa in comune. Si tratta di software elaborati per giocare. L’apprendimento delle AI trova nel terreno del gaming un laboratorio naturale in cui sviluppare capacità di apprendimento, strategie e la necessità di prevedere le mosse dell’avversario per elaborare la tattica migliore. È passato del tempo, erano gli anni Novanta, dalla prima partita in cui il campione di scacchi Kasparov si è confrontato con il super computer della IBM e già oggi assistiamo ai più recenti successi di Alpha GO e Libratus, rispettivamente davanti a un tavolo da GO o alle carte del poker.
I sistemi adottati dai ricercatori per far prevedere alle AI le mosse dei giocatori potrebbero avere importanti ripercussioni nel futuro sviluppo delle intelligenze artificiali e del machine learning più in generale. Tutto sta nella capacità di previsione e nei modelli di codifica predittiva che stanno alla base della nostra rappresentazione del mondo. Un contributo importate a questi studi è stato offerto nel Giugno scorso da un software sviluppato, guarda caso, dalla società britannica Deep Mind. L’algoritmo, chiamato GQN (Generative Query Network) è in grado, dopo aver analizzato una singola foto di oggetti all’interno di una stanza, di visualizzare la loro posizione da punti di vista diversi in uno spazio tridimensionale. Si tratta di una predizione della collocazione degli oggetti nello spazio alla cui base sta proprio il concetto di codifica predittiva. La nostra mente funziona un po’ allo stesso modo e sia i neuroscienziati che gli esperti di AI si stanno confrontando per capire quali sono i meccanismi che stanno alla base di un simile sistema di predizione.
E questa capacità è strettamente legata alla nostra rassicurante percezione del mondo esterno, là dove errori di previsione generano inevitabilmente nel nostro cervello uno sfasamento tra ciò che ci aspettiamo e ciò che in realtà è.
Facciamo qualche esempio. Avete mai sentito parlare della Fallacia di Montecarlo? Si tratta di una previsione, errata, generata da aspettative che non hanno niente a che vedere con le probabilità e la statistica. Studiosi come Girolamo Cardano, uno dei primi a contribuire allo sviluppo della della teoria della probabilità e alla comprensione delle quote passando per Galileo Galilei per arrivare ai più recenti John Nash, hanno cercato di puntellare su basi matematiche le nostre previsioni del futuro. Ma poco importa visto che la tentazione di puntare sul rosso alla roulette dopo che è uscito per dieci volte consecutivamente il nero è qualcosa che sembra andare al di là della logica. Codifica predittiva al contrario, visto che dal punto di vista della statistica e delle probabilità, per non parlare della matematica non vi è alcuna correlazione tra l’esito di una giocata e quella successiva. La roulette non ha memoria, noi sì e sulla base di esperienze attuali valutiamo le strategie per prevedere il futuro; che non sempre sono le migliori.
Altro esempio è quello del tavolo. Immaginatelo con un piano e quattro gambe. Anche se l’oggetto sarà parzialmente nascosto da una porta, ad esempio, il vostro cervello sarà comunque in grado di riconoscerlo. Codifica predittiva anche questa. Bene. Se però una volta aperta la porta vi trovaste di fronte a un oggetto per metà tavolo e per metà sedia, la vostra capacità di inferenza si troverebbe di fronte a un elemento nuovo, non previsto e che per questa ragione mette in atto nella nostra mente un sistema complesso di elaborazione del presente sulla base dei nuovi dati in nostro possesso.
I ricercatori hanno dato un nome anche a questa sorpresa che genera nel nostro cervello uno specifico picco di attività elettrica che prende il nome di effetto N400. E qui sta il punto. Perché dietro a questo sfasamento tra previsioni del futuro e dati del presente si stanno concentrando le ricerche degli studiosi per elaborare un modello di funzionamento del nostro cervello. Capire il modo in cui pensiamo ed elaboriamo le nostre previsioni sul futuro si può rivelare di estrema importanza per lo sviluppo di intelligenze artificiali in grado di pensare come un essere umano. Oltre a fornire importanti elementi per comprendere quelli che sono gli algoritmi interni su sui si basa la nostra visione del mondo e come elaboriamo le nostre decisioni.
La questione è ancora aperta, ma i futuri sviluppi nel campo delle AI potrebbero essere di grande importanza per capire non tanto chi siamo, ma come siamo.
Lascia un commento