La Commissione Europea vuole dare un’etica all’intelligenza artificiale

Vinci tutto supernealotto e giochi Sisal

La Commissione Europea vuole dare un'etica all'intelligenza artificiale
Condividi l'Articolo
RSS
Twitter
Visit Us
Follow Me
INSTAGRAM

Codice etico UE sull’intelligenza artificiale: forte la tecnica, debole la politica. La Commissione Europea pubblica una prima bozza di linee guida per la progettazione di sistemi di intelligenza artificiale affidabili, nel rispetto della centralità dell’essere umano. Un lavoro importante, approfondito e concreto, che soffre però di un male tipico della UE: non è vincolante.

Per comprendere la genesi e lo scopo della prima bozza del codice etico per la progettazione di sistemi di intelligenza artificiale, elaborato da un team di esperti per la Commissione Europea, pubblichiamo un intervento di Luca Bolognini, presidente dell’Istituto Italiano per la Privacy e autore di “Follia Artificiale” (Rubbettino Ed., 2018).

VIKI, acronimo di Virtual Interactive Kinesthetic Interface, è il sistema di intelligenza artificiale (protagonista del film Io Robot) deciso a proteggere l'umanità da se stessa.
VIKI, acronimo di Virtual Interactive Kinesthetic Interface, è il sistema di intelligenza artificiale (protagonista del film Io Robot) deciso a proteggere l’umanità da se stessa.

Nella primavera del 2018, la Commissione Europea ha selezionato 52 intelligenze umane (l’AI HLEG) per fronteggiare la sfida etica dell’Intelligenza Artificiale. Questi esperti internazionali, provenienti dall’industria privata, dall’accademia e dalle istituzioni pubbliche, hanno dato vita a un gruppo di alto livello con il primo obiettivo di redigere delle linee guida per una Intelligenza Artificiale affidabile. Il testo, ancora in bozza, è stato pubblicato il 18 dicembre 2018 e per un breve periodo resterà in consultazione pubblica e aperto ai commenti.

Non si tratta del “solito” codice etico intriso di principi generalissimi sul tema, come se ne sono già visti in passato: esso contiene, anzi, numerose indicazioni utili all’applicazione pratica dei principi fondamentali del diritto europeo nello sviluppo di sistemi intelligenti.

L'occhio di HAL 9000, l'intelligenza artificiale di 2001 Odissea nello Spazio che decide di eliminare gli umani a bordo dell'astronave Discovery per preservare lo scopo della missione. A proposito di priorità. | pixabay
L’occhio di HAL 9000, l’intelligenza artificiale di 2001 Odissea nello Spazio che decide di eliminare gli umani a bordo dell’astronave Discovery per preservare lo scopo della missione. A proposito di priorità. | pixabay

Le linee guida comprendono anche una checklist adatta a verificare sin dalla progettazione (“by design”) l’aderenza alle raccomandazioni etiche della Commissione Europea. È sicuramente un passo in avanti rispetto ad altre esperienze analoghe condotte in giro per il mondo, rimaste tuttavia troppo lontane dalla realtà tecnologica concreta.

Il documento in questione, oltre a raccomandare “robustezza e sicurezza dei sistemi”, punta principalmente sulla centralità dell’essere umano nel rapporto con l’Intelligenza Artificiale: prima devono venire la dignità e la libertà umane, anche e soprattutto quando entrano in gioco gli algoritmi. L’autonomia delle persone deve sempre prevalere sull’autonomia artificiale, pertanto deve essere garantito un potere di supervisione da parte degli uomini sulle macchine, in modo da limitare le decisioni di queste ultime. Il “super-amministratore di sistema” deve insomma rimanere umano.

Come premessa logica, a maggior ragione, gli algoritmi e le loro scelte/evoluzioni devono risultare comprensibili agli esseri umani, e non sembra esserci spazio, almeno nella prospettiva etica europea, per forme di Intelligenza Artificiale profonda, oscura e insondabile, non trasparente e chiaramente tracciabile dagli umani.

Sono diversi gli aspetti positivi in queste linee guida, che posizionano l’Unione Europea all’avanguardia nella riflessione etico-umanistica sul progresso tecnologico mondiale.

Resta tuttavia un’insufficienza di fondo: si tratterà di un codice di regole aperto all’adesione volontaria da parte di governi, ricercatori e imprese, e non di norme vincolanti, e ci si chiede quali effetti potrà avere sui grandi colossi tecnologici multinazionali, ormai più influenti di interi Stati, o sui sistemi tecnologici esperti che auto-evolvono.

Il buonsenso è fondamentale anche per le macchine: "insegnarglielo" è parecchio difficile, ma, alla fine, non si dovrebbe avere (troppa) paura dell'intelligenza artificiale. | Wikimedia Commons
Il buonsenso è fondamentale anche per le macchine: “insegnarglielo” è parecchio difficile, ma, alla fine, non si dovrebbe avere (troppa) paura dell’intelligenza artificiale. | Wikimedia Commons

Inoltre, il documento rischia di peccare d’ingenuità in alcuni punti, come quando indica la cosiddetta “rule of law by design”, cioè la necessità di rispettare lo Stato di diritto – e quindi le Costituzioni e le Leggi – sin dalla progettazione di nuovi sistemi di Intelligenza Artificiale, anche calandone i precetti nei codici informatici: come se, in futuro, il pericolo non fosse legato proprio alla sostituzione delle leggi e dei codici – ancora frutto, oggi, di legislatori umani – con leggi approvate da legislatori artificiali e non umani.

Più che di “rule of law by design” avrebbe dunque senso parlare di “rule of human law by default”, cioè di Stato di diritto umano per impostazione predefinita, scongiurando scenari distopici di membri-robot di Parlamenti e governi: e chiaramente non sarebbe una carta “soft” e di autoregolamentazione, come queste linee guida, la sede corretta per fissare un “principio salva-umanità”, bensì le stesse Costituzioni e i Trattati internazionali. Insomma, si tratta di linee guida forti sul piano tecnico, ma deboli su quello politico e dei rapporti di forza.

Condividi l'Articolo
RSS
Twitter
Visit Us
Follow Me
INSTAGRAM

Ricerca in Scienza @ Magia

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
Inviami gli Articoli in Email:

Lascia il primo commento

Lascia un commento

L'indirizzo email non sarà pubblicato.


*


Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.