
Dopo aver sentito centinaia di registrazioni ad esempio, l’intelligenza artificiale ha acquisito le stesse capacità di un essere umano a svolgere gli esercizi. Anche quando si tratta di commettere degli errori: tende a fare più strafalcioni nelle clip in cui pure una persona in carne ed ossa commette maggiori sbagli. “Gli sviluppi nel campo dell’apprendimento automatico sono un’entusiasmante opportunità per le neuroscienze”, ha commentato Alexander Kell, uno degli autori principali dello studio. “Ora possiamo creare dei sistemi in grado di fare alcune delle cose che noi riusciamo a fare, mettere alla prova il modello e compararlo al nostro cervello”.
Infatti, la ricerca è anche servita a comprendere meglio la struttura della corteccia uditiva umana, suggerendone un’organizzazione gerarchia: differenti aree cerebrali risponderebbero a diversi tipi di informazioni man mano che arrivano. Un meccanismo ben documentato nella corteccia visiva: la corteccia visiva primaria reagisce a stimoli semplici, per esempio i colori o l’orientamento, le altre zone si occupano di compiti più complessi come il riconoscimento degli oggetti. Ma di cui si hanno poche evidenze quando si parla del modo in cui elaboriamo i suoni. In parte, perché fino ad ora non erano stati messi a punto modelli abbastanza buoni da replicare il comportamento umano, sostengono gli scienziati.
Lascia un commento