La strage di Christchurch e gli accordi con i social contro terrorismo ed estremisti violenti. Luci e ombre
13 min letturaDue settimane fa un gruppo di Stati, tra cui l’Italia, guidati dalla Nuova Zelanda e dalla Francia, la Commissione europea e le più importanti aziende tecnologiche, come Facebook, Microsoft e Google, hanno sottoscritto la Christchurch call, una sorta di impegno volontario per agire contro i contenuti terroristici ed estremisti violenti online. La call, non vincolante, non è stata firmata ad esempio dagli Stati Uniti.
L’iniziativa nasce in risposta alla strage di Christchurch, in Nuova Zelanda, dello scorso marzo e ad altri attacchi in cui gli attentatori hanno utilizzato le piattaforme online per diffondere contenuti violenti e rientra tra i tentativi da parte dei governi di tutto il mondo di reprimere discorsi di incitamento online all’odio attraverso leggi o politiche di ampia portata.
Nella call si legge infatti che quanto accaduto a Christchurch evidenzia l’urgente necessità di un’azione e cooperazione rafforzata tra governi, società civile e società che gestiscono i social media per eliminare i contenuti online terroristici ed estremisti.
«Il nostro obiettivo era semplice: quello che è successo... non dovrà accadere mai più», ha dichiarato il Presidente francese Emmanuel Macron in una conferenza stampa all’Eliseo, a Parigi, al fianco della Presidente della Nuova Zelanda Jacinda Ardern. «La dimensione social di questo attacco è stata senza precedenti e la nostra risposta oggi... è senza precedenti. Mai prima d'ora paesi e aziende tecnologiche si sono unite e si sono impegnate in un piano d'azione per sviluppare nuove tecnologie per rendere più sicure le nostre comunità», ha aggiunto Ardern.
Come parte degli impegni presi, i governi hanno promesso di applicare le norme già esistenti che limitano la diffusione di materiale terroristico e di prendere in considerazione l’adozione di nuove regolamentazioni per ridurre la diffusione di questo tipo di contenuti, purché non rendano Internet un luogo meno libero. Le aziende hanno concordato che continueranno ad applicare le loro policy della community per rimuovere materiale d’incitamento all’odio e a sviluppare i loro algoritmi in modo tale che non aiutino la diffusione di contenuti violenti. I governi e le società tecnologiche collaboreranno con le forze dell'ordine locali per indagare sui comportamenti illegali e per rispondere ai futuri attacchi terroristici, in particolare quando i contenuti estremisti sono condivisi online.
Tuttavia, resta da chiedersi se questa iniziativa vada nella direzione giusta e dia gli strumenti per prevenire futuri attacchi o possa essere una volta di più un modo per rendere Internet uno spazio sempre più controllato mettendo così a rischio la libertà di espressione.
«È in gioco il futuro di come decidiamo quali sono i discorsi legittimi e quali sono quelli non legittimi», ha affermato David Kaye, relatore speciale delle Nazioni Unite per la libertà di espressione e le comunicazioni digitali. «Sono questioni di dibattito pubblico ed è legittimo che i governi assumano delle iniziative. La mia preoccupazione riguarda l'approccio che decidono di adottare».
Definita da studiosi ed esperti di Internet un’iniziativa lodevole, la call ha sollevato molte critiche da un punto di vista procedurale e sostanziale. Ancora una volta ci si è concentrati sulla rimozione dei contenuti online e non sull’importanza della loro moderazione da parte di team umani. Non è stato fatto alcun riferimento ai modelli di business delle piattaforme, alle quali invece è stata delegata ogni forma di controllo dei contenuti condivisi al loro interno.
Infine non sembrano essere stati presi in considerazione le conseguenze dell’adozione di policy esclusivamente ispirate alla rimozione dei contenuti affidate alle aziende private che gestiscono le piattaforme che, in alcuni paesi, favorisce la repressione delle forme di dissenso e la limitazione dell’accesso a Internet, spazio invece di pluralismo delle fonti di informazione e motore di maggiore inclusione sociale. Ma, come sostenuto dalla Presidente della Nuova Zelanda, la strada è lunga e la “Christchurch Call” è solo la prima tappa. «A settembre elencheremo le azioni concrete intraprese e quali tipologie di contenuti saranno rimossi sulla base di questa call e cercheremo di coinvolgere ancora più aziende e paesi», ha aggiunto Macron.
Un processo imperfetto sin dall'inizio
Il percorso che ha portato alla stesura della Christchurch call rappresenta un altro esempio in cui in un’azione collettiva che vuole portare a mantenere Internet uno spazio aperto e sicuro è stata trascurata la voce di quegli esperti che studiano e lavorano sulla Rete, scrive Access Now, organizzazione non-profit di difesa dei diritti umani e che si batte per un Internet libero e aperto.
Per quanto legittimi e nobili gli intenti politici dell’iniziativa, il documento finale è il risultato di consultazioni avvenute a porte chiuse tra pochi soggetti. Solo il giorno prima della diffusione del testo, il governo della Nuova Zelanda ha organizzato una riunione con gruppi della società civile a Parigi alla quale hanno partecipato le organizzazioni per i diritti digitali e le libertà civili e quelle che lavorano per contrastare l'estremismo violento e il suprematismo bianco.
La Presidente della Nuova Zelanda Jacinda Ardern ha partecipato all’incontro e si è impegnata in prima persona con i rappresentanti dei gruppi convocati per ascoltare le loro voci per quella che, nel raccontare l’iniziativa, l’Electronic Frontier Foundation (EFF) ha definito “una mossa senza precedenti” ma tardiva.
La Voices for Action – questo il titolo dato all’incontro – è arrivata infatti troppo tardi. I partecipanti hanno ricevuto l’invito ufficiale appena due giorni lavorativi prima e non c’è stato un momento di confronto diretto con le altri parti coinvolte nel “mantenere Internet un luogo aperto e sicuro” (obiettivo dichiarato della Christchurch call), ovvero le grandi compagnie tecnologiche e i governi. Alla società civile è stato chiesto di implementare un testo già elaborato e non c’è stato spazio per formulare commenti critici sulla sua struttura e sui suoi contenuti. Per questo motivo, prosegue Access Now, nonostante i gruppi della società civile siano citati più volte nel documento e sia previsto un loro contributo alla sua attuazione, l’incontro non ha consentito un vero e proprio confronto. La loro esclusione – ha scritto Global Network Initiative in una lettera inviata alla Presidente della Nuova Zelanda Ardern e al Presidente della Francia Macron – rischia di compromettere ulteriormente la fiducia nel processo innescato dalla call. Una partecipazione allargata a governi, società tecnologiche e società civile consentirebbe invece il confronto di più soggetti diversi tra di loro e di adottare politiche e strategie più solide e informate.
Per quanto vi fosse un consenso generale sul fatto che la rimozione dei contenuti non possa essere la risposta all’estremismo e che i governi debbano innanzitutto concentrarsi sulle sue cause profonde, non c’è stata convergenza tra le questioni sollevate dalle organizzazioni convocate a Parigi e quelle individuate da governi e aziende. La Presidente Ardern ha riconosciuto che in tempi di crisi i governi vogliono agire immediatamente e che spesso ricorrono a strumenti di censura e controllo. Tuttavia, commentano Access Now ed EFF, la Christchurch call è un miscuglio che di alcune idee importanti e di quegli stessi strumenti (censura e controllo) verso i quali Ardern ha sostenuto di guardare con preoccupazione.
Cosa c'è di buono
Rispetto ad altre iniziative passate come la proposta di regolamento dei contenuti terroristici dell’Unione europea o la legge dell’Australia che punisce i manager dei social media, la Christchurch call riconosce l’esigenza di interventi “coerenti con i principi di un Internet libero, aperto e sicuro” e che non compromettano “i diritti umani e le libertà fondamentali, compresa la libertà di stampa”.
Inoltre, il documento invita i governi a impegnarsi a "rafforzare l'inclusività delle nostre società" attraverso l'educazione, l'alfabetizzazione ai media e la lotta alle disuguaglianze e sottolinea gli obblighi di trasparenza per le aziende e i governi quali pilastri fondamentali di qualsiasi tentativo pubblico o privato di regolamentare la Rete, e l’invito a governi e aziende che gestiscono grandi piattaforme di consultarsi con la società civile.
Nello specifico, le aziende sono chiamate a evidenziare quali sono le conseguenze della condivisione di contenuti terroristici e estremisti violenti, descrivere le policy che portano all’individuazione e alla rimozione di questi contenuti e fornire agli utenti procedure di reclamo e ricorso efficaci.
È curioso, sottolinea ancora Access Now, che nella prassi che ha portato alla stesura del testo finale, questo invito alla trasparenza sia stato di fatto disatteso.
Cosa c'è da migliorare
In una dichiarazione congiunta i gruppi convocati seppur tardivamente a Parigi hanno individuato una serie di criticità presenti nel testo finale.
- Definizione di terrorismo ed estremismo troppo generica.
Innanzitutto, la call resta generica quando parla di “contenuti terroristici ed estremisti violenti”, una categoria che può variare da paese a paese e in alcuni casi, come in Giordania, è stata utilizzata per perseguire, in base alle leggi sul terrorismo, chi è critico nei confronti del governo. Invece, si legge nella dichiarazione congiunta, “i governi che partecipano alla “Christchurch call” devono impegnarsi a garantire che le leggi e le altre iniziative intraprese per combattere il terrorismo online non si traducano in violazione dei diritti umani di chi ha posizioni politiche diverse, attivisti, giornalisti, minoranze etniche o religiose, rifugiati, richiedenti asilo e migranti”.
Inoltre, ogni iniziativa legislativa deve prendere atto che come la tecnologia è solo una parte del problema, allo stesso modo è solo una parte della soluzione. Oltre a cercare soluzioni che riguardano Internet bisogna “contrastare le cause strutturali e i fattori trainanti del terrorismo e dell’estremismo violento”.
- La definizione di “fornitori di servizi online” è troppo ampia e va limitata.
Nella call si tende a confondere i social media con l’intera infrastruttura di Internet. I “fornitori di servizi online” possono includere una vasta gamma di servizi, tra cui i provider di accesso a Internet, i database dei nomi dei domini, gli hosting dei siti web, i Content Delivery Network e le piattaforme social.
Pensare di chiedere l’intervento di generici “fornitori di servizi online”, non limitandosi ai soli social, può mettere in pericolo la natura globale e aperta di Internet.
- L’utilizzo di filtri può essere controproducente.
Ancora una volta, inoltre, si fa riferimento all’utilizzo di filtri per impedire la diffusione di contenuti violenti. Tuttavia, come scritto anche da Valigia Blu in più occasioni, la moderazione richiede un coinvolgimento umano significativo in modo tale da poter valutare i contenuti a seconda del contesto. L'uso di sistemi automatizzati nella moderazione dei contenuti deve essere attentamente esaminata prima di essere implementata e dovrebbe riguardare un numero limitato di casi proprio per le sue implicazioni sulla libertà di espressione e sui diritti fondamentali, come la privacy.
- I governi non dovrebbero delegare alle società tecnologiche la regolamentazione dei contenuti online.
Infine, si delega alle aziende che gestiscono le piattaforme la responsabilità di identificare e rimuovere i contenuti violenti di estremisti. Queste società – spiega Access Now – devono fare in modo che Internet resti uno spazio in cui siano rispettati i diritti umani e sotto questo aspetto svolgono un ruolo chiave nei confronti della società. Tuttavia, “i governi non dovrebbero mai esternalizzare la regolamentazione dei contenuti online a società private. Gli utenti meritano un quadro chiaro e compatibile con i diritti umani per la protezione della loro libertà di espressione online”. È compito dei governi rendere Internet un luogo inclusivo, aperto e in cui siano garantiti i diritti umani e le libertà fondamentali.
In questa cornice, Microsoft, Twitter, Facebook, Google e Amazon si sono impegnati in un piano d'azione in nove punti per contrastare la diffusione di contenuti terroristici online. Alcune delle azioni riprendono quanto contenuto nella Christchurch Call, come l’aggiornamento degli standard delle rispettive community per vietare i contenuti estremisti, la pubblicazione di relazioni periodiche sulla trasparenza e l’avvio di una cooperazione tra società tecnologiche, governi, istituzioni educative e ONG per sviluppare una comprensione condivisa dei contesti in cui vengono pubblicati contenuti violenti e migliorare la tecnologia per rilevare e rimuovere i contenuti terroristici e estremisti violenti in modo più efficace ed efficiente.
Il giorno prima della pubblicazione della Christchurch Call, Facebook ha annunciato modifiche alle sue policy rispetto ai Facebook live sulla sua piattaforma: gli utenti che violano gli standard della community e i termini di servizio della società potrebbero essere espulsi per un periodo massimo di 30 giorni.
Facebook, però, non ha specificato quali violazioni potrebbero portare al ban – nonostante il documento firmato da governi e aziende che operano su Internet richieda trasparenza e chiarezza – né si capisce quale possa essere la connessione con la strage di Christchurch che, come spiegato dallo stesso social network, fu resa virale non tanto dalla diretta Facebook (alla quale erano collegate appena 200 persone) ma dalla condivisione in sole 24 ore di ben 1,5 milioni di versioni modificate del video che continuavano a essere caricate sulla piattaforma quando l’attacco si era concluso e che il social network non era stato in grado di arginare.
Infine, Facebook non affronta la questione che davvero potrebbe fare la differenza, spiega Javier Pallero su Access Now, e cioè di come le piattaforme prendono le loro decisioni sui contenuti e sulle sponsorizzazioni ai fini della monetizzazione e in che misura questo impatta poi sulla moderazione dei contenuti.
Consigli per una moderazione a misura di diritti umani
Facebook's policies on content moderation have a huge impact on #humanrights across the globe.
In our new paper, @javierpallero shares rights-based principles for content moderation & a set of recommendations for Facebook’s planned oversight board: https://t.co/33lmDCFMfs pic.twitter.com/sM2kCyxrjh
— Access Now (@accessnow) 15 maggio 2019
Access Now ha pubblicato un documento che dà suggerimenti alle principali piattaforme social come Facebook, ad esempio, su come sviluppare pratiche di moderazione dei contenuti online che proteggano la libertà di espressione.
I regolamenti che disciplinano la moderazione dei contenuti hanno effetti molto importanti sui diritti umani sia a livello individuale che collettivo. Le decisioni, che le aziende prendono su come parlare e cosa condividere sulle loro piattaforme, modellano gli spazi di discussione, influenzano la capacità di ciascuna persona di poter esprimere liberamente le proprie idee e possono arrivare a silenziare (o amplificare) le voci di gruppi o intere comunità. E, man mano che le aziende che gestiscono le piattaforme crescono di dimensioni, scala geografica e influenza, fungendo da intermediari del discorso pubblico, l’impatto sui diritti umani è ancora maggiore.
Per questo motivo, il ricorso da parte di Facebook o YouTube all’intelligenza artificiale o a tecnologie di apprendimento automatico per operare su vasta scala rischia di censurare ulteriormente o escludere comunità vulnerabili, marginalizzate, figure come attivisti, giornalisti o difensori dei diritti umani, togliere strumenti a chi cerca di documentare crimini di guerra, come accaduto con YouTube che aveva rimosso migliaia di video che documentavano le atrocità in Siria nel tentativo di eliminare la propaganda estremista dalla sua piattaforma, rischiando così di mettere a repentaglio futuri procedimenti giudiziari di crimini di guerra.
Una questione complessa e delicata, spiega Access Now, che non può risolversi delegando alle aziende tecnologiche e agli standard di community di volta in volta adottati la decisione su cosa è possibile o no pubblicare, a quali contenuti dare la priorità o minore visibilità, e che non può risolversi nella eliminazione di un post o nella chiusura di un profilo. Queste decisioni, prese seguendo criteri e metodi diversi, possono aumentare o ridurre la portata e la visibilità di alcuni post, e determinano quanti e quali gruppi di utenti sono esposti a determinati contenuti.
La rimozione dei contenuti – prosegue il sito non-profit a difesa dei diritti umani e per un Internet aperto e libero – dovrebbe essere obbligatoria per Facebook o altre piattaforme solo su ordine di un'autorità giudiziaria indipendente e imparziale. E le leggi che regolamentano questo particolare aspetto devono i principi di legalità, necessità e proporzionalità, e garantire che le persone colpite ricevano un giusto processo.
E anche se le società non sono obbligate per legge a fornire un giusto processo quando moderano i contenuti, nell'ambito del quadro internazionale dei diritti umani, le piattaforme hanno il dovere di rispettare i diritti umani nell'elaborazione e nell'applicazione delle loro regole sui termini di servizio, e dare la possibilità – cooperando con le indagini legali e i processi e risarcendo anche le spese non giudiziarie nei casi in cui risultano violati i diritti umani – di poter verificare se la moderazione dei contenuti ha provocato una violazione dei diritti umani.
È una questione politica, dunque, che richiede un approccio globale.
.@eff have been tracking the impact of social media content takedowns & account deactivations for many years. TOSsed Out shows how speech moderation rules unfairly target many people that don't deserve it. https://t.co/bUIzxpYqtT pic.twitter.com/YPmtiwTNTf
— Access Now (@accessnow) 22 maggio 2019
Nel frattempo, EFF ha lanciato TOSsed Out, un progetto che raccoglie casi di persone messe a tacere dalle piattaforme di social media a causa dell’applicazione incoerente ed erronea dei propri termini di servizio.
Si tratta, spesso, di persone marginalizzate che mettono in discussione l'autorità, criticano i potenti, educano e richiamano l'attenzione sulla discriminazione. Cinque anni fa EFF aveva lanciato il progetto onlinecensorship.org che traccia i contenuti rimossi su Facebook, Twitter e altri social media.
«Le prassi di moderazione dei contenuti sulle piattaforme social colpiscono persone di ogni tipo di opinione politica. Le donne nere sono state segnalate per aver pubblicato messaggi di incitamento all'odio quando invece stavano condividendo esperienze di razzismo. I contenuto linkati da chi fa educazione sessuale sono stati rimossi perché ritenuti eccessivi. TOSsed Out mostrerà quanto spesso vengono rimossi contenuti che invece dovrebbero essere consentiti», ha spiegato Jillian York, direttrice dell’International Freedom of Expression presso EFF.
Recentemente Facebook ha deciso di oscurare un articolo di Valigia Blu – rendendolo visibile solo a chi lo aveva condiviso – perché aveva come anteprima un’immagine che contravveniva gli standard della community in materia di nudo o atti sessuali. L’articolo metteva in discussione i criteri controversi e incoerenti di moderazione da parte della piattaforma raccontando la storia di un utente che aveva visto la sua pagina oscurata perché aveva condiviso quella stessa immagine per la quale è stato oscurato il nostro pezzo, la copertina di album dei Led Zeppelin. La decisione di Facebook è arrivata a 6 giorni dalla pubblicazione, facendo pensare a una scelta adottata da un team umano incapace di distinguere tra un artwork e pornografia e contravvenendo alle stesse policy del social network che permette “la pubblicazione di fotografie di dipinti, sculture o altre forme d'arte che ritraggono figure nude”. Grave che a noi non sia arrivata nessuna notifica che ci mettesse al corrente di questa decisione di Facebook ma che a essere avvisati dal social network siano stati solo gli utenti che avevano condiviso post. Abbiamo chiesto più volte spiegazione di questo comportamento a Facebook anche rispetto alla scelta di bloccare quella immagine. Dal social network ci hanno fatto sapere dopo 10 giorni che confermavano la decisione di bloccare l'immagine e per questo motivo hanno deciso di bloccarla e rimuoverla anche sulla pagina ufficiale dei Led Zeppelin.
TOSsed Out punta a raccogliere casi controversi di rimozione e ban. «Con TOSsed Out, cercheremo di mettere pressione sulle piattaforme osservando più da vicino chi è stato effettivamente colpito dalle regole di moderazione», ha dichiarato Katharine Trendacosta, analista politica di EFF.
Foto in anteprima via Gizmodo