Dopo le pressioni dell’Unione Europea, Facebook, Microsoft, Twitter e YouTube passano all’azione. L’idea: un codice per rendere riconoscibili chi posta foto e clip di propaganda. Come contro pedopornografia e copyright.
Proprio come accade da oltre un anno per la lotta alla pedopornografia o per la protezione del copyright, i colossi del web sembrano aver partorito la soluzione alla propaganda terroristica praticata attraverso i loro servizi.Facebook, Microsoft, Twitter e YouTube, cioè Alphabet alias Google, hanno annunciato che lavoreranno insieme per costruire un superdatabase di contenuti a rischio. Vale a dire delle immagini e dei video utilizzati per indottrinare le persone e spingerle a unirsi ai gruppi estremisti.
Ogni contenuto avrà una sua “fingerprint” univoca, cioè una sorta d’impronta digitale, una stringa identificativa che renderà molto più semplice pescare ed eliminare una singola immagine o una clip: “Non c’è spazio per i contenuti che promuovono il terrorismo sui nostri servizi – hanno spiegato le compagnie in unblog post condiviso – quando siamo avvisati assumiamo azioni rapide contro questo genere di materiale in accordo con le nostre policy”.
Un simile meccanismo, quello contro la pedopornografia, è stato sviluppato a partire dall’agosto 2015 e di quel progetto fa parte anche Yahoo. Lo stimolo era arrivato dalla ong britannica Internet Watch Foundation, che ha ideato un sistema in grado di taggare le immagini di abusi sessuali su minori ciascuna con un valore di hash, insomma con una stringa di codice identificativa. Se l’immagine è stata bollata in questo modo e si tenta di caricarla su qualcuna di quelle piattaforme, l’upload viene automaticamente bloccato evitando ulteriori condivisioni.
Da ieri il progetto di questo database antiterrorismo è lanciato. Dovrebbe essere presentato alla seconda edizione dell’Internet Forum europeo in programma giovedì al palazzo Berlaymont di Bruxelles mentre la piattaforma dovrebbe essere operativa già nel 2017. Immagini violente e sanguinarie prodotte dai terroristi o video di istruzioni al confezionamento di ordigni, indottrinamento o reclutamento saranno dunque schedati. Ma soprattutto queste informazioni, anche quelle di contenuti già rimossi in passato, saranno condivise dai colossi che hanno scelto di partecipare: “Speriamo che questa collaborazione ci conduca a una maggiore efficacia nel momento in cui continuiamo a implementare le nostre strategie per aiutare a frenare la pressione di questo tipo di materiali”, hanno aggiunto.
Una decisione figlia anche di un’altra pressione: proprio quella dell’Unione Europea, che rimprovera il quartetto di non essersi mosso con tempestività per limitare e monitorare la pubblicazione di materiale terroristico. Appena domenica scorsa la Commissione aveva fatto sapere che avrebbe anche potuto agire con norme specifiche per imporre un controllo più stringente. Il richiamo è frutto della scarsa applicazione di ciò che era stato deciso e sottoscritto lo scorso maggio sotto la regia della commissaria per la Giustizia V?ra Jourová: lo stesso gruppo di sigle hi-tech aveva infatti accettato di applicare un pacchetto di nuove regole relative al contrasto del cosiddetto odio online, fra le quali per esempio la prescrizione di analizzare ed eventualmente rimuovere ogni segnalazione nel giro di 24 ore. Era il frutto del codice di condotta stilato per combattere l’hate speech e la propaganda terroristica su internet. Erano le norme che prevedevano anche che i social e le piattaforme promuovessero strategie contronarrative per opporsi a questo genere di materiali. Peccato che, secondo un rapporto interno, solo il 40% delle compagnie rimuove entro 24 ore i contenuti odiosi diffusi in Rete.
“Se Facebook, YouTube, Twitter e Microsoft vogliono convincerci che l’approccio non legislativo può funzionare, dovranno agire in fretta e fare un grande sforzo nei prossimi mesi – ha spiegato al Financial Times Jourová – i social media devono prendersi la propria parte di responsabilità quando si tratta di fenomeni come la radicalizzazione online, espressioni di odio illegale o notizie false”. La mossa di oggi va dunque inquadrata esattamente in questo contesto.
Il problema però è sempre lo stesso: ogni società determinerà in autonomia quali contenuti condividere e soprattutto se rimuoverli o meno una volta identificati. Insomma, ciascuna rimarrà fedele alle proprie policy nel momento di stabilire se far fuori o mantenere una certa immagine o un certo video. “Attraverso questa collaborazione ci impegniamo a proteggere la privacy dei nostri utenti e la loro possibilità di esprimersi liberamente e in modo sicuro sulle nostre piattaforme” si legge ancora nel post. Il punto di criticità, tuttavia, è proprio questo: solo il database sarà condiviso, e sulla base di ciò che Facebook, Twitter, Microsoft o YouTube decideranno di condividere. Senza contare che ciò che sarà poi identificato sulla base della fingerprint non sarà rimosso di default ma sarà sottoposto agli spesso contraddittori standard della comunità.
Lascia un commento