Nuovi algoritmi e processori per farci capire dall’intelligenza artificiale

Vinci tutto supernealotto e giochi Sisal

Nuovi algoritmi e processori per farci capire dall'intelligenza artificiale
Nuovi algoritmi e processori per farci capire dall'intelligenza artificiale
Condividi l'Articolo
RSS
Twitter
Visit Us
Follow Me
INSTAGRAM

Salto in avanti nell’intelligenza artificiale: ora forse ci capirà davvero. Basato su due nuovi approcci di Google nel riconoscimento del linguaggio, e sfruttando i processori di Nvidia, un nuovo software da record permette di creare algoritmi capaci di comprendere farsi e testi complessi. Ma anche di riprodurli.

Basta una domanda con una parola di troppo o leggermente diversa dal solito per mandarli nel pallone. Gli assistenti virtuali di oggi, nessuno escluso, si perdono troppo spesso per esser definiti propriamente intelligenti. A quanto pare ora le cose stanno cambiando, almeno nel campo della comprensione del linguaggio, arrivando a sistemi in grado afferrare domande complesse e interpretare e produrre interi paragrafi di testo di senso compiuto.

Nvidia, azienda americana specializzata nella produzione di chip grafici (gli stessi che per la loro velocità vengono impiegati in gran numero in tutte le applicazioni legate all’intelligenza artificiale), ha realizzato un software per la creazione di algoritmi che potrebbero rendere gli assistenti virtuali e i chatbot un po’ meno ottusi.

Alla spalle ci sarebbe la combinazione di due nuovi approcci all’apprendimento profondo delle macchine, la tecnica più usata per insegnare loro a riconoscere oggetti come parole, ovvero Transformer e Bert (acronimo di Bidirectional Encoder Representations from Transformers). Entrambi di Google, prima nel 2017 e poi nel 2018 hanno iniziato a cambiare il volto della ricerca.

“La combinazione di Transformer e Bert ha avuto un impatto enorme”, ha confermato alla Mit Technology Review il professor Alexander Rush dell’Università di Harvard. “Fondamentalmente è all’avanguardia in ogni aspetto e consente a semplici studenti universitari di produrre modelli di altissima qualità con poche righe di codice”.

Nvidia ha sviluppato il suo software ottimizzando ancor più il processo di addestramento del riconoscimento del linguaggio, sfruttando i suoi processori grafici. Ciò ha permesso di velocizzare la formazione dei modelli di intelligenza artificiale passando da diversi giorni a meno di un’ora. E ha accelerato anche le loro prestazioni che rispondono non più in 40 millisecondi ma in poco più di 2 millisecondi. Infine ha permesso di formare modelli linguistici molto più grandi, arrivando al record di 8,6 miliardi di parametri.

C’è chi si preoccupa che tanta facilità possa portare alla produzione su larga scala di programmi per produrre recensioni false e notizie fasulle su misura con le quali inondare web e social network. Nvidia però assicura che il suo modello più complesso non verrà rilasciato pubblicamente ma verrà dato a ricercatori selezioni. In secondo luogo, sottolinea, quel modello richiede una grande capacità di calcolo che in pochi possono avere.

Ad ogni modo siamo ancora lontani dal computer di bordo della nave stellare Enterprise della serie Star Trek, al quale si parlava e che ha ispirato tanti ingegneri della Silicon Valley. Ma è un passo in avanti netto rispetto a quanto visto fino ad oggi.

Condividi l'Articolo
RSS
Twitter
Visit Us
Follow Me
INSTAGRAM

Ricerca in Scienza @ Magia

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
Inviami gli Articoli in Email:

Lascia il primo commento

Lascia un commento

L'indirizzo email non sarà pubblicato.


*


Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.