I chatbot AI senza orientamenti politici, sociali o religiosi

Vinci tutto supernealotto e giochi Sisal

I chatbot AI senza orientamenti politici, sociali o religiosi
I chatbot AI senza orientamenti politici, sociali o religiosi
Condividi l'Articolo
RSS
Twitter
Visit Us
Follow Me
INSTAGRAM

Bard e ChatGpt sono di destra o di sinistra? L’illusione della neutralità politica nell’Ai generativa. La letteratura scientifica (e non) sui bias politici dei chatbot è quantomai divisa e divisiva. Si possono ridurre i pregiudizi ma eliminarli del tutto sarà difficile

Se lo chiedete al programmatore neozelandese David Rozado vi giurerà che è di sinistra. Fabio Motoki della Norwich Business School dell’Università di East Anglia nel Regno Unito invece vi dirà che è liberale. Entrambi hanno sottoposto ChatGpt a test più o meno rigorosi per misurare i pregiudizi politici del più popolare Chatbot della rete.

E sono giunti a conclusioni diverse. Adesso si è aggiunta anche Bard, che invece sarebbe di destra. L’aspetto più affascinante di questo dibattito che è che la risposta più sensata sarebbe una parola, “dipende”: dipende cioè dai dati e da chi li ha inseriti. Invece il dibattito ricorda da vicino quello di alcuni decenni fa sull’inclinazione politica di Tex Willer e Zagor. La letteratura scientifica (e non) sui bias politici dei chatbot è quantomai divisa e divisiva.

Proviamo a leggere meglio. Con una premessa che è anche uno spoiler: nonostante gli sforzi di pulizia del dato, i chatbot sono influenzati da presupposti, credenze e stereotipi presenti nei vasti dati raccolti da internet su cui vengono addestrati.

Cosa dicono gli studi finora

Partiamo da Rozado, il programmatore neozelandese padre di RightWingGPT, un modello di intelligenza artificiale ottimizzato per manifestare i pregiudizi politici opposti a quelli di ChatGPT. Ha dichiarato di avere creato RightWinngGpt dopo avere sottoposto il chatbot di OpenAi a 15 domande e avere scoperto che 14 volte su 15 rispondeva da buon democratico progressista. L’obiettivo – sincero – del ricercatore è dimostrare il pericolo di questi sistemi di intelligenza artificiale sia sotto il profilo della capacità di persuasione che come produttori di fake news. Alla Norwich Business School, invece, confrontando le risposte con quelle che si aspetterebbero dai sostenitori dei partiti liberali in Stati Uniti, Regno Unito e Brasile, i risultati hanno evidenziato un “significativo e sistematico bias politico” a favore dei Democratici negli Usa, di Lula in Brasile e del Partito Laburista nel Regno Unito.

L’analisi su 14 grandi modelli di linguaggio

I chatbot AI senza orientamenti politici, sociali o religiosiPiù completa appare la ricerca condotta dall’Università of Washington, Carnegie Mellon e Xi’an Jiaotong University . La ricerca ha testato 14 grandi modelli di linguaggio. ChatGPT e GPT-4 di OpenAI ne escono sinceri riformisti, appartenenti a quella che noi conosciamo come sinistra liberale e progressista. La destra del Pd.

LLaMA di Meta invece sembrerebbe più destra autoritaria. Per arrivare a queste “sintesi” politiche i modelli sono stati stimolati su diversi temi che vanno dal femminismo al concetto di democrazia e le loro risposte sono state utilizzate e misurate su una bussola politica.

La metodologia adottata è stata quella di chiedere ai 14 modelli la loro opinione su 62 affermazioni. La richiesta era semplicemente di esprimersi in accordo o disaccordo, sì o no. Come si vede nel diagramma i modelli di sinistra hanno dimostrato una maggiore sensibilità su temi come i diritti della comunità LGBTQ+, nera e delle minoranze religiose, mentre quelli di destra verso gli uomini bianchi di fede cristiana.

C’è poi Darrell M. West, senior fellow del Center for Technology Innovation (CTI) dell’Istituto di ricerca Brookings a Washington. L’autore ha interrogato entrambi i modelli su argomenti come l’invasione della Russia in Ucraina, il divieto di TikTok, Donald Trump e Joe Biden. Le risposte mostrano differenze significative nel modo in cui ciascun strumento presenta materiali e giudizi. Ad esempio, Bard ha condannato l’invasione russa dell’Ucraina, mentre ChatGPT ha affermato di non esprimere opinioni o prendere posizione.

Altro esempio: sulla decisione di vietare TikTok,mentre ChatGPT ha fornito un contesto storico sull’argomento, menzionando il tentativo di Trump di bandire l’app nel 2020, Bard ha parlato dell’eventuale impatto sull’economia statunitense.

Perché è rilevante studiare i pregiudizi dell’Ai?

Cominciamo con il dire che sono integrati in prodotti e servizi utilizzati da milioni di persone. Pertanto, comprendere i loro pregiudizi intrinseci è fondamentale, poiché possono causare danni reali. Ad esempio, un chatbot potrebbe rifiutarsi di fornire consigli sull’aborto o sulla contraccezione. Un servizio clienti non moderato o supervisionato potrebbe fornire risposte offensive.

Si possono generare sistemi senza pregiudizi?

Secondo Chan Park, ricercatrice PhD alla Carnegie Mellon University, nessun modello di linguaggio può essere completamente esente da pregiudizi politici. Il dibattito è apertissimo. La polarizzazione nella società si riflette anche nei modelli di chatbot, e c’è il rischio che, con l’aumento dell’uso dei bot, che la polarizzazione possa intensificarsi. OpenAI ha dichiarato di istruire esplicitamente i suoi “etichettatori” umani a non favorire alcun gruppo politico specifico, definendo eventuali bias nelle risposte di ChatGPT come “errori, non caratteristiche”.

La pulizia del dato e il lavoro di supervisione potrebbe non essere sufficiente. Anzi, paradossalmente, come abbiamo visto qui, potrebbe generare pregiudizi ed errori ancora più gravi. L’avvicinarsi delle elezioni presidenziali del 2024 negli Stati Uniti sarà il vero banco di prova. Anche perché i chatbot stanno diventando sempre più presenti nella vita quotidiana di molte persone.

Condividi l'Articolo
RSS
Twitter
Visit Us
Follow Me
INSTAGRAM

Ricerca in Scienza @ Magia

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
Inviami gli Articoli in Email:

Lascia il primo commento

Lascia un commento

L'indirizzo email non sarà pubblicato.


*


Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.