Internet e filtri: una forma di censura che mette a rischio le democrazie
7 min letturaNegli ultimi mesi la discussione pubblica si sta focalizzando su una serie di problematiche che vengono viste come peculiari dell’ambiente digitale: hate speech, fake news, diffamazione, cyberbullismo. Le soluzioni proposte per questi problemi si concentrano quasi esclusivamente sulla rimozione dei contenuti online, delegandone poi l'attuazione alle piattaforme online.
Si tratta comunque di problematiche già vagliate dalle istituzioni europee, per le quali sono ritenute necessarie riforme delle norme in materia, tutte attualmente in discussione, che avranno un notevole impatto sull’accesso delle informazioni online, e quindi, sulla democrazia stessa. Ad esempio, nel maggio del 2016 la Commissione ha approvato la bozza di riforma della "Direttiva AudioVisual Media Services" (AVMS), nella quale sono inserite norme per combattere il razzismo e la xenofobia in rete e proibire l’incitamento alla violenza e all’odio contro gruppi definiti per razza, colore, nazionalità o etnia. La AVMS include anche norme a tutela dei minori. La nuova direttiva Copyright, ancora in discussione, include, all’articolo 13, l’obbligo per gli intermediari della rete di stringere accordi con l’industria del copyright al fine di prevenire la disponibilità di contenuti illeciti sui loro servizi. La proposta di Direttiva per il contrasto al terrorismo prevede misure di rimozione di contenuti che incitano ad atti terroristici, con l’introduzione di misure volontarie da parte delle aziende del web.
Queste norme in discussione si inquadrano nell'ambito della strategia Digital Single Market europea, che prevede l’introduzione di normative settoriali e introduce esplicitamente le misure volontarie come strumento per contrastare le attività illecite online. In tale quadro, ad esempio, la Commissione europea ha facilitato la negoziazione di un accordo tra le principali aziende del web al fine di contrastare l’hate speech online. Anche l’accordo tra i social network per contrastare i contenuti terroristici online si inquadra in questa strategia.
In sostanza, ci stiamo muovendo progressivamente verso la privatizzazione della regolamentazione dei contenuti online, i quali saranno in futuro sempre più controllati e gestiti (e eventualmente rimossi) dalle aziende private, in base a specifici accordi tra loro. Si tratta di quegli strumenti “non legislativi” dei quali la Commissione europea parlò già a partire dal 2014, alla presentazione del piano contro la pirateria.
Il filtraggio dei contenuti
La riforma Copyright introduce un obbligo per le piattaforme online, “che conservano e forniscono l’accesso a grandi quantità di opere”, di predisporre misure appropriate per assicurare il funzionamento degli accordi conclusi con i titolari dei diritti d’autore per l’uso delle loro opere, o per prevenire la disponibilità delle loro opere. Quindi, gli intermediari, da un lato sono obbligati a concludere accordi con i titolari dei diritti (misure “non legislative”), dall’altro devono rimuovere le opere illecite caricate online dagli utenti dei loro servizi.
Cioè, la proposta di Direttiva richiede agli intermediari di predisporre e adoperare strumenti di filtraggio dei contenuti stessi, al fine di verificare la presenza di contenuti illeciti. Così introducendo l’obbligo di un monitoraggio generalizzato dei contenuti in contrasto con la giurisprudenza comunitaria (vedi sentenze Sabam). Ovviamente, data la quantità di contenuti immessi quotidianamente sulle piattaforme online (Facebook, Youtube, Twitter), è impensabile un monitoraggio umano, per cui di fatto si introduce nel diritto europeo una repressione degli illeciti tramite algoritmi software, attuata dalle aziende tecnologiche che fungeranno da sceriffi dei contenuti online. Rimane il problema di convincere i recalcitranti intermediari ad addossarsi il compito di sceriffi della rete. Infatti, il ruolo del provider è di predisporre uno spazio per gli utenti dove possano parlare liberamente, perché in tal modo ha più persone a cui vendere pubblicità e trarne guadagni. Eccessive restrizioni porterebbero inevitabilmente a non generare profitti sufficienti.
La responsabilità degli intermediari
L’altro pilastro sul quale si regge il DSM è la rideterminazione della responsabilità degli intermediari, fino ad oggi regolamentata dalla Direttiva Ecommerce. Il rapporto della Commissione, Communication on Online Platforms and the Digital Single Market Opportunities and Challenges for Europe, se formalmente ritiene sufficiente le attuali norme sulla responsabilità degli intermediari, in realtà adombra future modifiche in casi specifici (es. per harmful content, contenuti dannosi) e l’estensione delle categorie degli intermediari della comunicazione, ora divisi in hosting, mere conduit e caching. Si pensa a nuove categorie, ad esempio: cloud provider (che non sono solo degli hosting provider), search engines (in genere ricompresi tra i caching ma con qualche difficoltà) e linking provider (considerando le problematiche relative ai link si veda la sentenza GS Media-).
In questo quadro, come detto altrove, la nuova Direttiva Copyright estenderà, se approvata, la responsabilità degli intermediari della comunicazione in contrasto con quanto oggi previsto dalla Direttiva Ecommerce. Il punto rilevante, giuridicamente parlando, è il "Considerando 38", il quale stabilisce che, laddove un fornitore di servizi memorizzi informazioni e fornisca accesso al pubblico a opere tutelate caricate dai suoi utenti, a meno che non siano applicabili le esenzioni previste dalla Direttiva Ecommerce, pone in essere un atto di comunicazione al pubblico. Ogni comunicazione al pubblico deve essere autorizzata dai titolari dei diritti, quindi la proposta di direttiva prevede una responsabilità degli intermediari non secondaria (es. per favoreggiamento) ma diretta, per i contenuti illeciti caricati dagli utenti.
Ma quale è esattamente il rischio di un ampliamento della responsabilità degli intermediari?
Precisiamo innanzitutto che l’avvio di una impresa dipende anche dal rischio connesso. Molte attività (es. la guida in automobile) sono rischiose ma comunque considerate socialmente benefiche. L’introduzione di una responsabilità a carico dell’intermediario rende necessario a quest'ultimo trasferire il rischio ad altri soggetti. Ad esempio, prevedendo un costo per il servizio, laddove oggi la maggior parte dei social network ha un modello di business basato sulla gratuità del servizio. L’intermediario dovrebbe, in sostanza, prevedere sistemi di monitoraggio dei contenuti, e valutazione degli illeciti. Considerando che la valutazione degli illeciti è attività complessa anche per un giudice, preparato ad hoc, l’intermediario dovrà, o assumere personale esperto (quindi costoso) oppure approntare algoritmi di rimozione che, per forza di cose tenderanno a rimuovere in tutti i casi dubbi, per non doverne, appunto, rispondere. L’effetto sarà un’ovvia riduzione degli spazi di esercizio della libertà di manifestazione del pensiero (censura collaterale, John Balkin, The Future of Free Expression in a Digital Age).
È importante osservare, a questo proposito, che (sempre Balkin), mentre un editore ha interesse a pubblicare un articolo, perché dà valore commerciale al giornale, un intermediario della comunicazione (es. un social network) non ha alcun interesse alla pubblicazione di uno specifico contenuto (questo è uno dei motivi per i quali Facebook non è una media company), e quindi non ha alcun interesse a difendere quello specifico contenuto.
La diversità e il pluralismo
Sintomatico della strategia DSM è l’introduzione di un nuovo diritto a favore degli editori, teso a colmare il “value gap” editoriale, una sorta di tassa sui link che andrebbe, nella retorica della Commissione, a bilanciare l'inefficienza del sistema di distribuzione dei profitti derivanti dai diritti di proprietà intellettuale nell’ambiente digitale. In particolare, la vicenda spagnola, a seguito dell'introduzione di un simile diritto, è esemplificativa, visto che lì l’effetto si è attestato su una perdita di traffico per l'intero comparto editoriale di circa il 6%, e fino al 14% per i piccoli editori. In sostanza, la norma ha portato a concentrare ulteriormente il mercato nelle mani di pochi editori, a scapito della diversità e il pluralismo dei media.
Questo approccio è preoccupante, in attesa delle soluzioni per problematiche come l’hate speech e le fake news, laddove è di comune evidenza che la soluzione principale a questi problemi dovrebbe, invece, passare da una maggiore diversità e pluralità di opinioni. Se ci concentriamo sull'approccio alla base della riforma copyright, appare evidente che esso non è altro che la trasposizione nelle norme europee delle richieste dell'industria del copyright che da anni lamenta delle perdite dovute alla pirateria, pretendendo, è il caso di dirlo, delle misure davvero draconiane, cioè una repressione spinta. La misura tipica dell’approccio aziendale alle violazioni del copyright, cioè la rimozione dei contenuti online, poi finisce per essere estesa anche a tutte le altre problematiche del web: cyberbullismo, hate speech, fake news, ecc.
Il problema delle misure di rimozione dei contenuti o oscuramento degli stessi è l’overblocking, cioè la rimozione di contenuti in numero maggiore rispetto a quelli illeciti. Uno studio ha stimato che circa il 28% dei contenuti rimossi da Google potrebbero non essere illeciti. Stiamo parlando di circa 400 milioni di contenuti l’anno.
Ancora, una corte federale americana, nel caso CDT vs Pappert, si è occupata degli effetti di una legge della Pennsylvania che imponeva filtri per i contenuti pedopornografici. Anche se l’intento era certamente meritevole, si è verificato che, secondo la Corte, il 99,9% dei siti bloccati erano del tutto leciti.
Le pressioni delle lobby aziendali sono ovviamente strumentali alla tutela dei loro profitti, ma anche per la creazione di nuovi business, come ad esempio il mercato della sicurezza. L’alterazione dei dati è operazione piuttosto semplice, come nel caso del cyberbullismo dove, il fenomeno diventa allarmante semplicemente facendo rientrare nella già vaga definizione quanti più comportamenti possibili, dai reati (per i quali esiste già una forma di risposta), fino alla denigrazione e all'esclusione di gruppi. Allargando la definizione il fenomeno diventa più grave, si crea il mercato, e si “vende” la soluzione.
La centralizzazione dell’informazione sarebbe, quindi, un ovvio effetto della riforma della direttiva copyright, con evidenti ricadute sull’ambiente democratico, visto che ci sarebbe una riduzione dell'accesso alle informazioni (anche in considerazione di una contrazione del pubblico dominio) e soprattutto una riduzione della diversità di opinioni (studio dell’UNESCO). Il Digital Single Market, quindi, con la scusa di una maggiore efficienza economica del mercato unico europeo, vuole imporre restrizioni che impattano sull’accesso alle informazioni.
In conclusione
Riassumendo, vi è un ampio movimento in base al quale determinate problematiche sono viste come specifiche del web, in alcuni casi si alimenta la discussione anche allargando artificialmente il problema, ad esempio includendo nelle definizioni di hate speech, cyberbullismo, ecc, molte cose che a rigore non c’entrano. La discussione quindi si anima e si propongono soluzioni che, in fin dei conti, non sono altro che i suggerimenti (risalenti nel tempo) dell’industria al fine di massimizzare i propri profitti e alimentare nuovi mercati. È da notare, in tale prospettiva, che anche la Corte europea, nelle sentenze gemelle Sabam, alla fine vieta il monitoraggio globale perché incide negativamente sulla libertà di impresa del provider.
Da queste discussioni, quindi, nasceranno, e molte sono già in preparazione, nuove norme che privatizzeranno il controllo dei contenuti online tramite l’imposizione ai provider di nuove responsabilità (più o meno alla stregua di paesi come Russia e Cina) e di doveri di rimozione di contenuti. Il filtraggio dei contenuti online, non importa l’applicazione, è una forma di censura che comporta gravi ricadute sotto forma di overblocking o rimozioni collaterali di contenuti leciti. Tutto ciò porterà a un'ovvia restrizione degli spazi di manifestazione del pensiero, con centralizzazione del controllo dei contenuti e inevitabili ricadute sulla tenuta della stessa democrazia.
Non si tratta solo di una questione meramente commerciale. Ma della necessità di un controllo delle informazioni che fluiscono online. La maggior parte dei futuri utenti della rete, infatti, saranno di lingua non inglese, verranno dalla Cina, dall'India, dal Brasile, e dall'Africa. Miliardi di persone che hanno punti di vista e valori culturali e sociali differenti rispetto a noi occidentali, differenze che influenzeranno il dibattito e la politica a livello globale.
Foto anteprima via andrewscampbell.com.