Software @ Management - Assistenza Tecnica e Corsi Informatica ed Internet. Grafica per la stampa ed il web. Creazione ed Aggiornamento siti web. Campagne MMM SEM SEO!

Un Codice Etico per le macchine con intelligenza artificiale e guida autonoma

Vinci tutto supernealotto e giochi Sisal

Un Codice Etico per le macchine con intelligenza artificiale e guida autonoma
Un Codice Etico per le macchine con intelligenza artificiale e guida autonoma
Condividi l'Articolo
RSS
Twitter
Visit Us
Follow Me
INSTAGRAM
“Salvo i miei passeggeri o i pedoni?”. Un codice etico per i robot al volante. Ci si interroga sulla ‘morale’ delle future auto a guida autonoma. E la Germania vara per prima i prìncipi cui i produttori dovranno attenersi.

Sacrificare la madre con la bambina sulla destra o la coppia di anziani sulla sinistra? O ancora: andare fuori strada e rischiare la vita dei tre adulti a bordo o frenare ma probabilmente colpire i due adolescenti che stanno attraversando anche se per loro il semaforo è rosso? Una macchina a guida autonoma potrebbe trovarsi davanti a scelte atroci in situazioni dove l’incidente è inevitabile. E così in Germania hanno deciso di stabilire venti principi etici per marcare i confini oltre i quali i programmatori non dovranno mai spingersi quando si tratterà di scrivere il codice delle vetture e dei robot del futuro. Li ha messi nero su bianco la Commissione etica sulla guida autonoma e connessa voluta dal ministro dei trasporti Alexander Dobrindt. Tra i quattordici membri anche un teologo, quattro professori di etica, uno di informatica, un ex giudice costituzionale.

“Questo sono al mondo le prime linee guida sul tema con una forte impronta etica”, racconta Christoph Luetge, professore di Business Ethics al Politecnico di Monaco e membro della commissione. “Principi fondanti che un domani potrebbero essere alla base di un nuovo quadro di leggi “. Si parte dalla sicurezza: l’automazione non ha senso se non salva vite, considerando che sulle strade muoiono ogni anno un milione e 250mila persone e nel 93 per cento dei casi l’errore umano svolge un ruolo essenziale nel causarli. Non solo. Si stabilisce il primato della libera scelta e questo si traduce nel rifiuto dei mezzi a guida autonoma totale, il cosiddetto “Livello 5” delle Google Car prive di volante e pedali. E ancora: il software di un autobus, auto o aereo, non potrà decidere chi sacrificare fra pedoni, guidatore e passeggeri nelle collisioni inevitabili scegliendo in base al genere, all’età o al numero. “La tecnologia deve esser progettata per non arrivare mai a casi simili “, prosegue Luetge.

Le “situazioni dilemma”, sulle quali tanto ci si è interrogati in ambito accademico in questi anni di ascesa delle macchine capaci di apprendere, vengono rifiutate in blocco. E riguardo le responsabilità oggettive, legali e assicurative, la commissione chiarisce che cambieranno volta per volta, a seconda che l’incidente sia stato provocato da una rottura di un componente, da un errore del software mentre guidava o da quello del conducente.

Non è la sola iniziativa ufficiale sui temi dell’automazione. La commissione giuridica del Parlamento europeo a febbraio e a novembre la Direzione generale per i trasporti della Commissione Ue, avevano trattato l’argomento da punti di vista diversi. Negli Stati Uniti a settembre anche il Dipartimento dei trasporti ha stilato delle linee guida, ma per evitare il caos normativo. “Il peggior scenario possibile è arrivare ad un puzzle di leggi diverse per la guida autonoma che cambiano di Stato in Stato”, ha sintetizzato Robert Grant, uno dei dirigenti del servizio Lyft, il maggiore concorrente di Uber oltreoceano. Ma del “dilemma etico” nessuno aveva ancora parlato fino a poco fa.

Oggi l’Institute of Cognitive Science dell’Università di Osnabrück, sempre in Germania, pubblicherà i risultati di una sua ricerca sulle scelte degli automobilisti davanti a collisioni impossibili da evitare, condotta usando visori per la realtà virtuale. La maggior parte degli individui nelle varie situazioni ha reagito sempre alla stessa maniera. Secondo i ricercatori, le nostre scelte morali sarebbero dunque traducibili in algoritmi e trasferibili alle macchine.

“Non conosco programmatori che abbiano già affrontato il problema “, spiega Danny Shapiro, a capo della divisione automotive di Nvidia, azienda californiana che fornisce processori e software per intelligenza artificiale e guida autonoma a colossi come Audi, Toyota, Tesla, Mercedes- Benz, Volvo, Honda, Bmw. “La guida di livello 4 arriverà solo nel 2019. È presto. E poi i sistemi digitali hanno tempi di reazione immediati e non soffrono la stanchezza. È improbabile arrivino a trovarsi davanti a scelte simili “. Il “dilemma” quindi è una possibilità molto remota, come ammette la stessa commissione voluta da Berlino. Ma in Germania pensano comunque che non spetterà a Silicon Valley dover decidere quale strada prendere.

Condividi l'Articolo
RSS
Twitter
Visit Us
Follow Me
INSTAGRAM

Ricerca in Scienza @ Magia

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
Inviami gli Articoli in Email:

Lascia il primo commento

Lascia un commento

L'indirizzo email non sarà pubblicato.


*


Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

Shop @ Magiko - Vendita online di Articoli Esoterici e Magici. Ritualistica e Festival Anno Magico!