YouTube, nuove regole contro molestie e odio online
5 min letturaYouTube ha aggiornato le linee guida contro le molestie online. La nuova policy copre sia il contenuto dei video che i commenti pubblicati dagli utenti e prevedere la possibilità di espulsione dalla piattaforma per insulti discriminatori e per minacce velate o implicite. È la politica sui contenuti più restrittiva che la piattaforma abbia mai avuto.
Fino a oggi, YouTube aveva proibito video che minacciassero esplicitamente una persona, rivelassero informazioni confidenziali personali, o incoraggiassero gli spettatori a molestare qualcuno. Adesso saranno inclusi tra i comportamenti proibiti anche le "minacce velate o implicite", come per esempio la simulazione di un atto violento contro un individuo o ipotizzare che un individuo possa essere vittima di violenza fisica.
Many of you have told us we need to do a better job preventing harassment on YouTube, so we consulted with a wide array of creators, experts and organizations to update our harassment policy, which changed today https://t.co/TnozAF9ZCG. ⬇️Here’s what it covers:
— YouTube Creators (@YTCreators) December 11, 2019
Inoltre, la compagnia adotterà una linea più severa nei confronti di chi rivolge insulti malevoli a un individuo sulla base dell'appartenenza a un gruppo protetto, a prescindere dal fatto che si tratti o meno di una personalità di spicco.
In un post pubblicato sul sito ufficiale, la CEO Susan Wojcicki dichiara che YouTube continuerà ad essere una piattaforma aperta ma che non tollererà più le molestie online e che questi cambiamenti sono pensati per proteggere i creatori di contenuti e la community.
Prima di effettuare le ultime modifiche alla policy la compagnia dice di aver consultato diverse tipologie di organizzazioni, di ogni orientamento politico: organizzazioni che studiano il bullismo online, in difesa dei giornalisti, o in difesa della libertà d'espressione. E per evitare che le nuove regole entrino in conflitto con alcuni diritti fondamentali ha previsto una serie di possibili eccezioni:
“Potremmo consentire contenuti che includono molestie se il loro scopo principale è didattico, documentaristico, scientifico o artistico. Ciò non costituisce tuttavia un pretesto per molestare altre persone.”
La corsa di YouTube contro l’odio e le molestie online
Gli aggiornamenti alla policy non dovrebbero sorprendere chi ha seguito da vicino l’evoluzione della moderazione sui social network degli ultimi anni. YouTube è stata più volte additata dai media come luogo di comportamenti negativi, molestie e odio online. E con il passare del tempo si è dimostrata sempre più severa nella moderazione dei contenuti pubblicati dagli utenti, per mettersi al riparo dalle accuse di avere avuto un ruolo determinante nella diffusione di false credenze (come il terrapiattismo) e nella radicalizzazione di convinzioni estreme come il suprematismo bianco, il negazionismo dell’Olocausto (per fare un esempio concreto) o il complottismo (in termini più generali).
Ciò che sorprende questa volta è la velocità con cui i nuovi regolamenti sono stati applicati: già dal giorno dopo l’annuncio la piattaforma ha iniziato a cancellare i video che non rispettavano la policy.
Anche se la compagnia non lo ha mai confermato esplicitamente, uno dei casi che potrebbe aver spinto verso l’adozione di una policy più restrittiva è quello del giornalista latino del sito americano Vox, Carlos Maza, vittima di ripetuti insulti razzisti e omofobi da parte del youtuber comico di destra Steven Crowder e dei suoi follower.
Since I started working at Vox, Steven Crowder has been making video after video "debunking" Strikethrough. Every single video has included repeated, overt attacks on my sexual orientation and ethnicity. Here's a sample: pic.twitter.com/UReCcQ2Elj
— Carlos Maza (@gaywonk) May 31, 2019
Pochi mesi fa, Maza aveva apertamente contestato YouTube per l'inazione davanti a questi attacchi e molti utenti si erano uniti a questa critica. La CEO della compagnia si era scusata con il giornalista, ma aveva colto l’occasione per difendere la propria policy che, in quel momento, dava diritto ai video di Crowder di restare online. Adesso alcuni di quei video sono stati eliminati dalla piattaforma.
That being said, I'm not mad at Crowder. There will always be monsters in the world. I'm fucking pissed at @YouTube, which claims to support its LGBT creators, and has explicit policies against harassment and bullying: https://t.co/K9XJGAP7Xp pic.twitter.com/4GUfTDuOXS
— Carlos Maza (@gaywonk) May 31, 2019
Carlos Maza ha commentato questo cambio di rotta con scetticismo: “Queste policy funzionano solamente se YouTube è disposto a bloccare chi, fra coloro che le infrangono, è più popolare. E non c’è ragione, almeno per ora, per credere che lo sia”.
TL;DR: YouTube loves to manage PR crises by rolling out vague content policies they don't actually enforce.
These policies only work if YouTube is willing to take down its most popular rule-breakers. And there's no reason, so far, to believe that it is.
— Carlos Maza (@gaywonk) December 11, 2019
Intelligenza artificiale o persone: chi controlla e su chi ricade la responsabilità e il peso di queste decisioni
Al di là dei dubbi del giornalista di Vox sulla reale determinazione di YouTube nel far rispettare le nuove misure, ogni volta che la policy sui contenuti di un social network dà un giro di vite, emergono una serie di interrogativi su come avverrà la moderazione e con quali tempistiche.
La cancellazione dei contenuti verrà decisa da un algoritmo? E, se così fosse, in che modo l’AI sarà capace di riconoscere le “minacce velate o implicite”? Pochi mesi fa ci trovavamo a riflettere sul fatto che questo modus operandi porta inevitabilmente a una cancellazione preventiva (prima che un umano possa verificare la decisione della macchina) dei contenuti, molti dei quali possono essere “falsi positivi”, ossia contenuti che rispettano la policy ma che confondono l’algoritmo. E in alcuni casi potrebbe trattarsi di video che hanno grande importanza per la società, per la storia o per i cittadini.
E se il problema dell’algoritmo e dei “falsi positivi” era già emerso quando YouTube aveva provato a filtrare i contenuti estremisti di carattere terroristico o neo-nazista, la situazione diventa ancora più complessa se parliamo di “minacce velate o implicite”, per il semplice fatto che l’intelligenza artificiale non è in grado di distinguere l’intenzione con cui certi contenuti sono diffusi.
E se invece questa volta ad occuparsi della moderazione sarà un team “umano”, dobbiamo interrogarci su chi siano e quante siano queste persone. Sono dipendenti della compagnia o è un lavoro che sarà esternalizzato? Sono qualificate? Hanno diritto all’assistenza psicologica adeguata per far fronte ai traumi che potrebbe causargli questa attività? La moderazione dei contenuti è infatti un lavoro pericoloso e stressante.
La maggior parte delle piattaforme appalta il lavoro di moderazione ad altre aziende che assumono persone che revisionano ogni giorno i contenuti segnalati o che possono violare le policy dei social network. Come hanno mostrato alcune inchieste giornalistiche, si tratta di un lavoro mal pagato e devastante per la salute psico-fisica: i dipendenti di queste società hanno parlato dello stress continuo al quale erano sottoposti durante la moderazione dei contenuti, di crisi di panico, disturbi da stress post-traumatico.
Quella che potremmo essere tentati di vedere come una terza via, ossia la collaborazione tra intelligenza artificiale e umana, si porta dietro le problematiche di entrambi i casi e di certo non mette al riparo da possibili errori, siano essi umani o no. Questo perché la tempistica gioca un ruolo fondamentale quando si tratta di una quantità di contenuti così vasta: stiamo parlando di una piattaforma che ha oltre un miliardo di utenti a cui accedono quasi due miliardi di persone mensilmente che guardano oltre un miliardo di ore di video, generando miliardi di visualizzazioni.
Foto via donthatethegeek