Intelligenza artificiale, filtri e contenuti sui social: “L’odio resterà. A sparire saranno i diritti e le libertà degli individui”
9 min letturaL’approvazione nelle scorse ore della contestata riforma europea sul copyright da parte del Comitato Affari Legali del Parlamento UE, se confermata in assemblea plenaria, segnerà una rivoluzione copernicana per la creazione e condivisione di contenuti in rete. Se fino a oggi le piattaforme digitali si presumevano non responsabili dei contenuti dei propri utenti, ed erano chiamate a rispondere solo in seguito a segnalazione di contenuti illeciti già pubblicati, da ora saranno costrette a intervenire prima ancora che vengano pubblicati.
I critici le chiamano censorship machines, macchine da censura. E hanno ragione: nel nome della tutela del diritto d’autore, si instaura un meccanismo per cui ogni contenuto deve passare il vaglio preventivo di una serie di algoritmi — opachi e ignoti al legislatore come all’opinione pubblica — il cui compito è creare una sorta di barriera all’ingresso alla rete. Se al check-point algoritmico si presenta per esempio un video che, in tutto o in parte, corrisponde a un contenuto protetto sulle liste fornite dai titolari del copyright, allora va bloccato prima ancora della pubblicazione.
Anche se la normativa europea non lo chiama così, si tratta in tutto e per tutto di un sistema di filtraggio. Idea pericolosa in sé, ma che lo diventa ancor più se si pensa che si tratta di un controllo a priori per nulla trasparente, dai contorni vaghi e senza che si comprenda di quali meccanismi di tutela e appello disponga chi si vede rimuovere, e automaticamente, contenuti perfettamente leciti.
Le piattaforme che gestiscono “grandi quantità” di materiale in upload, in una radicale inversione di marcia rispetto all’impianto legislativo che aveva retto fin dal 2001, diventano a questo modo sceriffi del web intenti a schedare ogni contenuto immesso in rete, confrontarlo con quelli protetti da diritto d’autore, e intervenire in caso di violazioni — se vogliono evitare di pagare le conseguenze di un uso illecito dei propri servizi da parte degli utenti.
E questo potrebbe finire per riguardare ogni tipo di contenuto, dai video satirici a quelli amatoriali ma che contengono in sottofondo, per esempio, un passaggio di una canzone protetta da copyright. Perfino i meme, che tipicamente si riappropriano di materiale proveniente da film, serie tv e altri prodotti di massa, sono a rischio.
Come hanno scritto 70 tra gli esperti di Internet più autorevoli al mondo in una lettera aperta al presidente del Parlamento Ue, Antonio Tajani, la nuova norma, “richiedendo alle piattaforme digitali di condurre un filtraggio automatico di tutti i contenuti che l’utente carica, (…) compie un passo senza precedenti verso la trasformazione di Internet da una piattaforma aperta per condividere e innovare a uno strumento per la sorveglianza e il controllo automatico degli utenti”.
Grave, gravissimo. Ma ancor più grave, e francamente sorprendete, è che la ratio adottata dal legislatore europeo sia perfettamente coerente con quanto stanno annunciando tutte le principali piattaforme tecnologiche. Che si dipingono sempre meno come soggetti neutri, semplici mediatori tra i bisogni dell’utenza e la loro realizzazione, e sempre più come agenti attivi delle sorti collettive.
Se per anni, insomma, l’idea che questi “intermediari” della comunicazione — come li chiamano i giuristi — fossero responsabili delle azioni dei loro iscritti era anatema, oggi non lo è più. E no, non è una buona notizia.
Grazie, dibattito sull’odio e le bugie in rete!
Far capitolare i colossi del digitale non è stato semplice. Ci sono voluti mesi, anni di tortura mediatica, basata spesso più su pregiudizi che su evidenze solide, su quanto odio ci fosse sui social media, quante bugie, quanti troll e bot scientificamente addestrati e coordinati per influenzare il consenso e la politica, quanti cyber-bulli, quanti estremisti, quanti terroristi. Ma alla fine, il lungo, estenuante dibattito sul “lato oscuro” della rete ha partorito il suo mostro.
E lo ha fatto in diretta, mentre gli occhi del mondo erano puntati sul fondatore di Facebook, intento a rispondere alle domande dei senatori statunitensi che lo stavano accusando, a reti unificate, per gli abusi della fiducia degli utenti nel caso Cambridge Analytica. “In passato ci è stato detto che piattaforme come Facebook, Twitter, Instagram sono neutrali. Che non sono responsabili dei contenuti degli utenti. Lei è d’accordo”, chiede il senatore John Cornyn a Zuckerberg in un passaggio che resterà nella storia, “che Facebook e gli altri social media non siano piattaforme neutrali, ma che siano in parte responsabili di quei contenuti?”
La risposta di Zuckerberg lascia di stucco. “Sono d’accordo”, ammette per la prima volta, “siamo responsabili dei contenuti”. Significa che Facebook è una media company, un editore come tutti gli altri? Niente affatto, naturalmente. Ma la torsione che prende l’argomento di Zuckerberg è quasi perfino peggiore. Perché segna il passaggio da un approccio reattivo alla moderazione dei contenuti, in cui la piattaforma interviene solo a seguito di segnalazione, a un approccio proattivo. Tradotto: sì, il numero uno di Facebook è d’accordo con l’idea che certi contenuti sgraditi o illeciti debbano essere rimossi prima ancora di vedere la luce sulla piattaforma, e sulla base di sistemi di riconoscimento e intervento sui contenuti del tutto indipendenti da ogni richiesta da parte di utenti o titolari di diritti.
Sembra un dettaglio, ma è una rivoluzione — la stessa promossa dall’Unione Europea, per altro. Per capire perché, giova riportare un altro passaggio dalla testimonianza di Zuckerberg al Senato USA; quello in cui la sua logica è spiegata più chiaramente:
Stiamo attraversando un più ampio mutamento filosofico nel modo in cui concepiamo la nostra responsabilità come azienda. Per i primi 10-12 anni, l’ho immaginata principalmente come un costruire strumenti che, messi nelle mani delle persone, avrebbero consentito loro di fare cose buone. Ciò che però penso di avere imparato ora da molte questioni — non solo la privacy dei dati, ma anche le fake news e l’interferenza straniera nelle elezioni — è che dobbiamo assumere un ruolo più proattivo e una visione più ampia della nostra responsabilità. Costruire strumenti non è abbastanza. Dobbiamo assicurarci che siano usati per fare del bene. E ciò significa che dobbiamo ora avere una visione più attiva nel monitorare l’ecosistema, nel controllarlo e nell’assicurarci che tutti i membri della nostra community stiano usando questi strumenti in modo buono e sano.
È il riflesso del complicarsi della stessa mission dell’azienda: connettere il mondo non basta più a garantire, come agli esordi, che sia più “aperto”. Ora bisogna agire attivamente affinché si creino relazioni “significative”, perché le persone usino la piattaforma per sentirsi parte di una comunità, confrontarsi in modo costruttivo e imparare l’una dall’altra nel rispetto delle reciproche differenze. Il tecno-entusiasmo degli inizi ha lasciato il posto, dopo infiniti scandali, alla consapevolezza che Facebook non è necessariamente un agente del bene, del multiculturalismo, dei diritti e della democrazia. Al contrario: affinché ciò si realizzi, serve fatica. Servono misure precise per intervenire sui difetti che incentiva e correggerli. Ammesso sia possibile.
Ed è su come Zuckerberg concepisce quegli interventi che il discorso si lega ai filtri preventivi imposti dall’Unione Europea. Il CEO di Facebook non è improvvisamente impazzito: se è disposto ad assumersi la responsabilità del buon uso della piattaforma da parte dei suoi utenti, è perché è convinto di avere la panacea, in tasca. Una medicina che cura ogni male, e che si chiama “intelligenza artificiale”.
Non è un caso che in quella testimonianza ripeta il concetto più di 30 volte. Trovare profili falsi? C’è l’AI. Rimuovere l’hate speech prima che porti a violenze e abusi? Di nuovo, c’è l’AI. Impedire alla propaganda di ISIS e dell’estrema destra che risorge, come una Fenice, dalle ceneri del Novecento, di diventare virale; intercettare un post o una diretta video in cui il protagonista minaccia il suicidio, prima che lo compia; contrastare persecuzioni a sfondo razziale o di genere; spegnere i bulli. Per tutto questo, c’è l’intelligenza artificiale.
O meglio, ci sarà. Al momento però c’è una promessa di risposta a ogni problema, di una medicina per ogni male. E dunque sì, può dire Zuckerberg, siamo e saremo in grado di controllare preventivamente che i contenuti degli utenti non violino il diritto d’autore, la privacy o la dignità altrui, e non foraggino messaggi estremisti, perché grazie alla magia degli algoritmi di moderazione, sempre più intelligenti, potremo gestire molti più contenuti, molto più rapidamente, e con tassi di precisione sempre maggiore.
Ormai lo assumono di passaggio anche gran parte dei resoconti giornalistici sulla materia. Come fosse autoevidente, necessario. Un destino.
This is a very, very dangerous assumption, one we should not make or concede lightly > "In the long run, though, Facebook knows that complex machine-learning systems are the best tool.
Do we really want an AI-moderated social media environment?
I don't.https://t.co/zyJkj5iFin— Fabio Chiusi (@fabiochiusi) May 24, 2018
“Siamo responsabili dei contenuti” diventa dunque: “i nostri algoritmi saranno responsabili dei contenuti, e saranno talmente infallibili che, di fatto, non saremo responsabili di nulla”. Sì dunque al controllo preventivo: tanto il filtro funzionerà talmente bene che i contenuti leciti resteranno online indisturbati, e quelli illeciti non vedranno nemmeno la luce del monitor.
Così i genitori infuriati, le donne perseguitate, i bambini esposti a decapitazioni e violenze, i giornalisti preoccupati per il perdere senso della verità saranno finalmente soddisfatti. E con loro, la politica, sempre a caccia di un capro espiatorio alla moda. Se non fosse un incubo, sembrerebbe una fiaba: e vissero tutti felici e contenti.
Gli sceriffi automatici conquistano Silicon Valley
E quando scrivo tutti, intendo proprio tutti. Perché il cambio di paradigma teorizzato da Zuckerberg investe già l’intera Silicon Valley. E non solo a parole: nei fatti. Si prenda il primo rapporto trimestrale sulla moderazione dei contenuti su YouTube, pubblicato lo scorso aprile. Al suo interno si legge che il social network ha rimosso, tra ottobre e dicembre 2017, otto milioni di contenuti, per la maggior parte di spam e pornografici. Ma soprattutto che di quegli otto milioni, 6,7 “sono stati segnalati per la revisione da macchine, piuttosto che da umani”.
Non solo, si legge: il 76% di quei contenuti ritenuti sospetti da algoritmi sono stati rimossi prima ancora di essere stati visualizzati una sola volta. E i tassi di automazione sono cresciuti vertiginosamente, in poco tempo: “Nel giugno del 2017”, scrive Google, “il 40% dei video rimossi per violenza estremista sono stati eliminati prima di ricevere una sola segnalazione umana. Una percentuale rapidamente cresciuta al 76% nell’agosto 2017, e all’83% nell’ottobre 2017. A dicembre 2017, il 98% dei video rimossi per violenza estremista sono stati identificati dai nostri algoritmi di machine learning”.
Per Google, ciò non significa meno revisione umana. Al contrario, le segnalazioni algoritmiche consentiranno di velocizzare di molto il processo, sostiene l’azienda, potenziando le circa 10 mila unità in carne e ossa dedicate alla moderazione. Come Facebook, il colosso si muove ancora nell’interregno in cui l’intelligenza artificiale non è abbastanza intelligente da fare da sola, e dunque — vista l’urgenza e le pressioni di media e politica — ecco moltiplicarsi gli staff di revisori.
Ma sono misure tampone. Il futuro sarà l’AI in ogni cosa, come dimostrano le rispettive conferenze in cui, ogni anno, Google e Facebook danno squarci sul loro futuro, l’I/O e l’F8. Nell’ultima, Google ha addirittura immaginato un assistente virtuale, Duplex, capace di interagire al telefono con esseri umani per prenotare, per esempio, un ristorante, senza che l’umano all’altro capo della cornetta si possa accorgere di avere a che fare con una voce sintetica.
Anche Twitter ha recentemente annunciato una novità che risponde alla stessa logica del primato della moderazione “intelligente”: mettere in campo algoritmi che garantiscano la “salute” — stesso termine usato da tutti e tre i colossi social — delle conversazioni online. L’idea di Twitter è tuttavia più raffinata, e pericolosa: usarli non per rimuovere contenuti illeciti, in violazione delle condizioni di utilizzo, ma per diminuire la visibilità di contenuti leciti, ma da parte di soggetti i cui comportamenti “distraggano e sottraggano” gli utenti da un sano e regolare dibattito pubblico.
La domanda che immediatamente sovviene è: ma chi decide quali meritano di finire catalogati nella categoria dei disturbatori da penalizzare, e con quali criteri? Twitter parla di nuovi “segnali” da dare in pasto ai propri algoritmi di moderazione, così da ottenere il massimo risultato in modo automatico, senza il bisogno delle segnalazioni degli utenti. Un profilo che non ha confermato il proprio indirizzo mail, una stessa persona che crea più profili contemporaneamente, o la continua menzione di profili che non la seguono sono tutti segnali definiti sospetti.
Ma il confine tra “salute” di una conversazione e “censura” di chi usa i toni più accesi o imprevedibili è labile. E non ci si può chiedere, con Mathew Ingram, quanti profili e tweet perfettamente legittimi finiranno per essere ingiustamente penalizzati da questa nuova trovata anti-troll.
I get that it's necessary to take action against abuse and trolls, but how many worthwhile tweets or accounts will suffer because an algorithm decided that they "detracted from the conversation?" https://t.co/9xn5wnTEl1
— Mathew Ingram (@mathewi) May 15, 2018
Il tutto aggravato dal fatto che Twitter, come ammette la VP per fiducia e sicurezza, Del Harvey, a Slate, non ha in previsione una procedura per avvisare gli utenti colpiti. Potremmo essere nella lista nera di qualche algoritmo a nostra insaputa, senza nemmeno sapere per quale ragione.
Le domande si moltiplicano, e le risposte non sembrano convincere. Eppure intanto il mondo tecnologico sembra ancora una volta avere deciso per tutti noi: la moderazione o sarà automatica e intelligente, o non sarà. Giornali come l’Economist, il New York Times e il Guardian, ma anche piattaforme come Wikipedia, hanno cominciato a sperimentare lo strumento di moderazione intelligente di Jigsaw e Google, Perspective, per “trovare pattern nei dati che consentano di individuare linguaggio offensivo o molestie online, e dare un punteggio ai commenti basato sull’impatto percepito che possono avere su una conversazione”, così da facilitare la vita ai moderatori umani.
Strumenti di moderazione “intelligente” sono all’opera in ogni campo, ovunque. Il sistema Utopia AI viene impiegato per gestire il più importante marketplace online di Svizzera, tutti.ch, 12,5 milioni di utenti al mese, e la piattaforma sociale finlandese, Suomi24. Smart Moderation ha già moderato un miliardo di messaggi in servizi in tutto il mondo, da oltre un milione di utenti. La piattaforma di live-streaming, Twitch, ha implementato nel 2016 AutoMod, un filtro algoritmico alla sezione commenti che consente agli utenti di impostare il livello di civiltà della conversazione — e all’algoritmo di rimuovere in automatico contenuti inopportuni.
E strumenti come Crisp vantano già la perfezione o quasi, garantendo un tasso di accuratezza superiore al 99%.
L’algoritmo per la civiltà, alla fine dell’arcobaleno
Ma siamo proprio sicuri che questi sistemi “intelligenti” siano poi così intelligenti? Ci sono molte ragioni di dubitarne. La prima è concettuale: non esiste né esisterà mai un algoritmo per rimuovere il male, l’idiozia e la violenza dal mondo. Per quanto una macchina possa essere smart, nessuna lo sarà mai abbastanza da garantire il prodursi di conversazioni civili e razionali. L’essere umano è fallibile e preda delle emozioni — ed è bene lo resti. Chiunque invece pensi l’opposto da un lato terrorizza, perché vuole una società di politicamente corretti, conformisti, e soprattutto di schiavi della volontà di moderatori automatici inconoscibili, proprietà di colossi privati e sottratti allo scrutinio pubblico. Dall’altro, ricorda la ricerca, vana, della pignatta d’oro in fondo all’arcobaleno: un miraggio.
Poi c’è la cronaca, i fatti. I molteplici casi in cui gli algoritmi di moderazione falliscono. La loro rozzezza, per esempio, ha portato a confondere violenza terroristica e documentazione di crimini di guerra, e dunque alla rimozione di testimonianze di atrocità compiute in Siria potenzialmente cruciali per punirne i responsabili. Su YouTube, grazie alla svolta verso la moderazione intelligente, “proattiva”, 900 profili di gruppi e individui che stavano documentando la guerra siriana sono spariti dalla sera alla mattina.
In un altro caso, un banale errore di traduzione automatica ha portato all’arresto di un perfetto innocente. Un uomo palestinese che, un mattino, pubblica una foto che lo ritrae appoggiato a un bulldozer, con un semplice commento: “buongiorno”. L’AI di Facebook, tuttavia, lo traduce con “attaccali” in ebraico, e “colpiscili” in inglese, e tanto basta perché l’uomo attiri le attenzioni della polizia israeliana, fino all’arresto e al rilascio solo ore più tardi, compreso il malinteso.
Quanto all’uso dell’automazione per tutelare il copyright, gli esperti concordano: i sistemi attuali sono nella migliore delle ipotesi “imperfetti”, restando incapaci di situare ogni contenuto nel suo contesto, comprendendone la semantica, l’ironia, le sottigliezze.
Sono solo una parte infinitesimale dei problemi che si possono presentare una volta che i filtri algoritmici preventivi diventino la norma, addirittura di legge. Si pensi a quanto sta accadendo in Germania, dove una contestatissima legge “anti-fake news” — in realtà, contro i contenuti illeciti o ritenuti tali — impone la rimozione di post inappropriati entro poche ore, pena una multa fino a 50 milioni di euro. Bella minaccia, a cui Facebook ha scelto come è naturale di rispondere con un eccesso di rimozioni: meglio un contenuto lecito in meno che milioni e milioni di euro in multe da pagare. E allora ecco pagine satiriche, o post con posizioni politiche estreme, magari, ma consentite sparire senza troppe spiegazioni.
È il destino che ci aspetta arrendendoci alla moderazione automatica, e ai filtri che dovrebbero impedire al male di venire al mondo: più decisioni arbitrarie estrapolate dal contesto, meno trasparenza, più rapidità nella rimozione anche al prezzo di rimozioni errate, più autocensura per timore che l’ironia o la critica non siano considerate accettabili.
L’odio, insomma, resterà. A sparire saranno i diritti e le libertà degli individui.
Il caos digitale non si elimina, ma si può guardare meglio
Che si può fare? Prima di tutto, contrastare in ogni modo e con ogni mezzo l’approvazione definitiva della norma europea sul copyright. È inaccettabile che nel nome del diritto d’autore si sacrifichi ogni altro diritto. Soprattutto, è urgente rifiutare la logica sottostante: che le piattaforme debbano essere responsabili dei contenuti dei loro utenti. Fare di Facebook un editore non risolve i problemi dell’editoria, ma in compenso fornisce un incentivo formidabile a Facebook per diventare un censore, molto più di quanto non lo sia già.
Non solo. I contenuti di propaganda terroristica hanno un valore, per chi studia e comprende i gruppi terroristici, per esempio. I post di odio di un neofascista parlano del modo in cui il neofascismo opera e si diffonde. E non tutti gli insulti sono un peccato capitale: a volte la conversazione può scaldarsi, come nella vita reale, senza che ciò configuri un reato o pregiudichi del tutto la possibilità di dialogo.
Ciò non significa che allora vada tutto bene così com’è e che si debba annegare nella bassezza umana. Significa però che l’idea di eliminarla dal campo visivo non la redime o corregge, e ci toglie ogni possibilità di capire come si stia presentando oggi, effettivamente, quella bassezza.
Ancora, significa che meglio di rimuovere dal campo visivo un ostacolo è vederlo più a fondo. E no, dare in pasto ad algoritmi la gestione del confine tra dicibile e indicibile non è un buon modo di riuscirci. La nuova promessa utopistica di Silicon Valley, che l’AI gradualmente farà delle distese di erbacce social altrettanti campi fioriti, va dunque a sua volta contrastata, con nettezza. Anche solo perché consente, come dimostrato dalle testimonianze di Zuckerberg negli Stati Uniti e a Bruxelles, risposte di comodo che non affrontano le specificità dei singoli problemi posti.
Non si può, poi, lamentare che i social ci privano della democrazia perché ci sorvegliano troppo e poi firmare una cambiale in bianco per farci sorvegliare ancora di più, addirittura spingendo il controllo alla fase di pubblicazione dei contenuti.
Né è possibile sostenere ragionevolmente che la soluzione al problema, oramai palese, dell’opacità degli algoritmi di selezione e moderazione dei contenuti sia aumentare i poteri di quegli algoritmi sulle nostre vite, senza ottenere in cambio alcuna trasparenza aggiuntiva.
Non che i giganti web non abbiano cominciato a pubblicare — solo a seguito di inchieste e rivelazioni giornalistiche, peraltro — i criteri seguiti davvero nella moderazione dei contenuti, o rapporti per la trasparenza che dettagliano cifre e percentuali su rimozioni umane e automatiche. È che in assenza di un modo per verificarli, quei dati non significano assolutamente nulla.
Per questo siamo costretti a fidarci di Twitter quando annuncia che con il nuovo sistema per ridurre la visibilità dei disturbatori c’è stato “un calo del 4% nelle segnalazioni di abusi da ricerche e dell’8% dalle conversazioni”. O di Facebook, quando dice, allo scorso Personal Democracy Forum, che l’AI è più precisa delle segnalazioni degli utenti del 60% nel contrasto dell’hate speech.
Is there a way for civic tech orgs or anybody, really, to actually verify these numbers? #PDF18 https://t.co/slNEazlbJ2
— Fabio Chiusi (@fabiochiusi) June 8, 2018
Serve, insomma, più trasparenza e meno fideismo cieco. Un modo per cominciare a incamminarsi sulla strada giusta sarebbe osservare quantomeno i principi stabiliti a maggio 2018 da organizzazioni come EFF, ACLU e Open Technology Institute in materia di moderazione dei contenuti. Più informazioni sulle rimozioni, più strumenti nelle mani degli utenti per comprendere gli errori eventualmente commessi, e la possibilità di fare appello alle decisioni delle piattaforme nel caso fossero ancora convinti di essere nel giusto sono solo il punto di partenza, ma sono già qualcosa.
E se proprio una parte del lavoro deve essere svolta da algoritmi, che ci si ponga almeno il problema — sollevato dai massimi rappresentati ONU — di coniugare rimozione automatica e diritti umani.
Se davvero il futuro impone una collaborazione di intelligenza umana e artificiale nel tenere a freno i nostri istinti più bassi, gli sforzi devono concentrarsi su sviluppare algoritmi a misura d’uomo, più che piattaforme digitali a misura di algoritmo.
Immagine in anteprima via Pixabay