Gonzalez contro Google: negli Usa si discute il futuro di Internet
|
Le sorti del web
Il 21 febbraio è iniziata dinanzi alla Corte Suprema degli Stati Uniti la causa Gonzalez contro Google. Si tratta di una causa molto importante perché potrebbe decidere che le aziende del web sono responsabili per i contenuti dannosi promossi dai loro algoritmi di raccomandazione, e questo finirebbe per modificare il comportamento delle piattaforme in Internet.
Il caso nasce dall’uccisione della studentessa universitaria Nohemi Gonzalez da parte di uomini armati dello Stato islamico (ISIS), un'organizzazione terroristica paramilitare. La famiglia Gonzalez sostiene che YouTube sarebbe corresponsabile per la morte della ragazza, in quanto avrebbe raccomandato contenuti relativi all’ISIS agli utenti, e quindi avrebbe operato un favoreggiamento dei terroristi.
Ricordiamo che nel novembre del 2015 i terroristi dell’ISIS uccisero circa 130 persone, e tra queste la giovane Gonzalez in visita a Parigi. Dopo la morte, un’organizzazione no-profit israeliana chiese alla famiglia Gonzalez di lavorare ad un caso proprio al fine di portare in giudizio YouTube per la promozione di propaganda terroristica. La NGO in questione è finita all’attenzione del pubblico per un presunto supporto da parte del Mossad, e per aver citato in giudizio i palestinesi per gli attacchi durante una rivolta lanciata nel 2000.
Il caso adesso è pervenuto alla Corte Suprema. Non si tratta, però, dell’unico caso in materia. In settimana la Corte ha ascoltato anche il caso Twitter contro Taamneh nel quale le vittime di attacchi terroristici a Istanbul citano Twitter in base all’Anti-Terrorism Act, per aver favoreggiato i terroristi. I due casi sono simili, ma non identici. Nel primo la Corte dovrà decidere se la Sezione 230 del Communications Decency Act nel 1996 protegge le piattaforme dalla responsabilità non solo per ciò che altre persone pubblicano, ma anche per i “consigli” dei propri algoritmi di raccomandazione. Nel secondo, invece, la Corte dovrà valutare se una piattaforma Internet può essere accusata di favoreggiamento del terrorismo se il suo servizio non è stato utilizzato direttamente in un attacco. Il caso Gonzalez, quindi, ha attirato immediatamente l’attenzione in quanto prende di mira direttamente la Sezione 230.
Sezione 230
Il caso Gonzalez ha attirato una notevole quantità di amicus brief (interventi adesivi ad una delle parti), poiché coinvolge anche parti differenti rispetto a quelle in causa, interventi sia a favore delle piattaforme che contro di esse. Nei primi giorni di audizione ciò che è emerso è che i giudici hanno l’intenzione di muoversi con cautela, affermando anche di essere confusi dalle argomentazioni dell’avvocato dell’accusa e preoccupati che una sentenza potrebbe minare lo sforzo che il Congresso operò anni fa, fornendo l’immunità alle piattaforme per incoraggiare lo sviluppo di Internet.
L'avvocato della famiglia Gonzalez, Eric Schnapper, ha sostenuto che l'applicazione della Sezione 230 alle raccomandazioni algoritmiche fornisce un incentivo a promuovere contenuti dannosi, esortando quindi la Corte a restringere tali protezioni. Ha avvertito che molti degli elementi che Google ritiene “inerenti” alla pubblicazione in realtà non lo sono. Secondo lui il titolo non lo è, e in particolar modo si è focalizzato sui thumbnail (le miniature dei video che consentono agli utenti di farsi un’idea del video consigliato): “devi avere una home page, ma non necessariamente devi avere sulla home cose selezionate sulle quali attiri l’attenzione degli utenti”. I thumbnail sarebbero, per lui, contenuti di prima parte forniti da Google e per i quali deve rispondere.
L’avvocato di Google, invece, ha sostenuto che la Sezione 230 protegge le aziende del web dalla responsabilità legale per i contenuti immessi da terzi nei propri servizi, con ciò garantendo una immunità (condizionata, cioè sussistente solo se la piattaforma rispetta delle specifiche condizioni) che è da sempre ritenuta essenziale per consentire alle aziende del web di operare online. In particolare la Sezione 230 consente alle piattaforme di moderare i contenuti senza il timore di doverne risponderne nel caso in cui le loro attività di moderazione non riescano. Ripulire il web dai contenuti dannosi è un compito improbo e difficile per tutta una serie di motivi, per l’enorme quantità dei contenuti (pensate a quanti video vengono immessi ogni secondo su YouTube) che rende necessario utilizzare degli algoritmi che ovviamente non capiscono il contesto e quindi tendono a commettere anche errori (errori che comunque potrebbero essere commessi anche da moderatori umani), ma anche per la difficoltà di dover stabilire cosa è dannoso e cosa non lo è, operazione spesso non semplice nemmeno per i tribunali (in questo caso sarebbero i privati a doverlo stabilire). È quindi sempre possibile che l’azienda possa rimuovere contenuti che poi siano ritenuti leciti da un tribunale oppure, nonostante si sia attivata, non sia riuscita a identificare contenuti dannosi.
La Sezione 230 non è studiata per far sì che le aziende possano pubblicare ciò che vogliono senza alcuna responsabilità, anzi al contrario incentiva le aziende ad assumersi stringenti oneri di moderazione dei contenuti. Inoltre non elimina la responsabilità per il materiale proibito dalle leggi sull'oscenità, lo sfruttamento sessuale dei bambini, la prostituzione o il traffico sessuale, o dalle leggi che tutelano la proprietà intellettuale e la riservatezza delle comunicazioni. Ma il problema principale è che le aziende diventano responsabili dei contenuti di terze parti (gli utenti) se ne hanno consapevolezza (li fanno propri in sostanza) per cui la verifica di un contenuto (cioè l’attività di moderazione) fa emergere la consapevolezza della piattaforma sul contenuto stesso, e quindi se le piattaforme esercitano la moderazione finiscono per rispondere di tutti gli errori di moderazione, e diventa un incentivo a non moderare nulla. Ecco perché venne emanata la Sezione 230 che autorizza le piattaforme anche a rimuovere contenuti di terzi, filtrandoli o selezionandoli, purché lo facciano in buona fede. Il comma 1 e il comma 2 della Sezione 230 devono essere letti separatamente. Il primo comma precisa che i fornitori di servizi interattivi online non sono editori, mentre è il secondo comma che prevede l’immunità nei casi in cui il fornitore del servizio modera i contenuti ma rimuove troppo o troppo poco. In tal senso il professor Kosseff ha definito la Sezione 230 “Le 26 parole che hanno creato Internet”, con ciò intendendo che senza quella “esenzione” nessuno avrebbe avuto l’incentivo a creare qualcosa online per il timore di dover rispondere degli eventuali danni prodotti da contenuti altrui (non propri).
Tale norma, però, non fa esplicito riferimento alle raccomandazioni operate dagli algoritmi, per cui alcuni sostengono che tale “esenzione” non sia applicabile in tali ipotesi.
Algoritmi e moderazione dei contenuti
Nel corso della causa l’avvocato della famiglia Gonzalez si è soffermato spesso sulla “neutralità”. Secondo lui l’immunità sussisterebbe solo quando l'algoritmo è “neutrale”. Si tratta di un argomento che comunemente genera consensi (se non è neutrale allora discrimina e quindi rispondi delle discriminazioni che crei), ma in realtà è fuori fuoco perché la Sezione 230 non parla di “neutralità”. Il richiamo a questo argomento da parte del legale della famiglia Gonzalez, quindi, è stato un evidente errore, anche se è vero che alcuni tribunali minori si sono mossi in questa direzione.
Il punto in realtà non riguarda affatto ciò che Google pubblica o non pubblica (è evidente che sono contenuti di terzi), quanto piuttosto il modello di business di Google. Raccomandare un video (di terzi) è parte del modello di business. Un algoritmo non è mai neutrale (l’errore sta nella costante antropomorfizzazione degli algoritmi, con ciò facendo risultare che è l’algoritmo che commette errori, che ruba il lavoro, che discrimina), ma è il frutto del lavoro di ingeneri che inseriscono le loro idee nel codice. E quegli algoritmi, in particolare, hanno lo scopo specifico di ottimizzare il business di Google. Non c’è nessuna neutralità in un algoritmo, la stessa pubblicazione di un contenuto di fatto è la discriminazione di altri contenuti, e la Sezione 230 non prevede la necessità di neutralità, si limita a incentivare la moderazione dei contenuti e immunizzare l’azienda che in buona fede lascia contenuti dannosi o rimuove contenuti non dannosi.
Su questa normativa si sono appuntate critiche bipartisan. I repubblicani criticano la legge perché consentirebbe di censurare troppo (in particolare sostengono - ma non esistono valide prove di ciò finora - che le piattaforme cancellino contenuti dei repubblicani su fantomatiche basi ideologiche), i democratici perché censurano poco, in particolare i contenuti che promuovono la violenza (hate speech).
Ovviamente, ribadiamolo, qui il punto riguarda i contenuti “raccomandati” dagli algoritmi della piattaforma, che hanno lo scopo di spingere i contenuti per poter mostrare più annunci agli utenti. La piattaforma può invocare l’esenzione anche nel momento in cui quel contenuto immesso da un terzo viene in qualche maniera rielaborato per una nuova presentazione? Quindi, ad esempio, messo in vetrina nella home page, oppure semplicemente presentato subito dopo il contenuto che noi stiamo visualizzando in quel momento? E che differenza c’è col libraio che mette in vetrina un libro enfatizzando la sua visibilità? Non dovrebbe rispondere anche il libraio della diffamazione che l'autore del libro ha commesso? E noi, quando rilanciamo, condividiamo o mettiamo like ad un contenuto, facciamo endorsement, dovremmo rispondere dei danni di quel contenuto? Perché in fondo anche il libraio, anche noi abbiamo “alimentato” la diffusione del contenuto di un terzo, portandolo ad un nuovo pubblico.
Secondo Lisa Blatt, l’avvocato di Google, tale esenzione copre anche i video di terze parti che emergono dagli algoritmi di raccomandazione della piattaforma. Questo perché si tratta sempre di contenuti che provengono da terze parti, e non dalla piattaforma, per cui il danno dovrebbe essere correttamente attribuito alla sola terza parte.
Il problema chiave è che è sostanzialmente impossibile distinguere tra moderazione dei contenuti, che è incoraggiata dalla Sezione 230, e raccomandazione dei contenuti (senza le quali la ricerca online sarebbe inutile). Se rimuovi un contenuto di fatto stai prioritizzando gli altri. Gli algoritmi di classificazione dei contenuti sono uno degli strumenti attraverso i quali si realizza la moderazione (come precisa Daphne Keller, direttore del Programma sulla regolamentazione delle piattaforme presso il Cyber Policy Center di Stanford), e non possiamo cambiare idea solo perché tale moderazione avviene tramite algoritmi piuttosto che esseri umani. I sistemi di raccomandazione non sono altro che algoritmi che rispondono alle sollecitazioni degli utenti. L’algoritmo “raccomanda” un contenuto perché l’utente ha cliccato su un determinato video, e quindi i “consigli” del fornitore sono sempre una conseguenza dell’azione dell’utente. Un algoritmo non deve necessariamente essere complesso, anche il semplice elenco in ordine cronologico è la conseguenza di una scelta algoritmica.
Gli stessi Wyden e Cox, autori della Sezione 230, in un amicus brief hanno precisato che la norma è stata scritta intenzionalmente in modo “neutro rispetto alla tecnologia” proprio per consentire alle aziende di sviluppare nuovi approcci alla moderazione dei contenuti. Secondo loro “i sistemi di raccomandazione che si basano su algoritmi sono i diretti discendenti dei primi sforzi di moderazione dei contenuti che il Congresso aveva in mente quando ha promulgato la Sezione 230”.
Qui si tratta di capire che si discute su strumenti di varia complessità che gli esseri umani scelgono di utilizzare a seconda dei propri interessi. Occorre distinguere, quindi, tra ciò che Google fa per aiutare gli utenti, e ciò che è invece una creazione di contenuti veri e propri.
Conclusione
Nel corso delle udienze il giudice Kavanaugh ha detto che la Corte potrebbe non essere ben attrezzata per valutare quale effetto potrebbe avere su Internet il ridimensionamento delle protezioni di responsabilità del settore tecnologico per i contenuti consigliati e ha suggerito che potrebbe essere una domanda che è meglio lasciare al legislatore.
Si tratta di un dubbio legittimo. La Sezione 230, scitta da Ron Wyden e Chris Cox, è il risultato di una precisa volontà di incentivare l’emergere dei servizi online. Ed è una norma che non esiste, in quella forma, in nessun altro Stato. Anche in Europa abbiamo una sorta di immunità per le aziende del web che è però decisamente più limitata, e solo col Digital Services Act (art. 7) stiamo progressivamente ampliando tale immunità. Si tratta evidentemente della presa di coscienza dell’importanza di tale immunità. Grazie a questa norma gli Stati Uniti sono stati in grado di coltivare aziende online in modi che altrove non era possibile, portando un’innovazione tecnologica strabiliante e opportunità economiche senza precedenti. Certo, tale normativa ha portato anche difficoltà e dolore per le persone che si sono trovate prese di mira da altri utenti del web. Ma è l’altra faccia della medaglia. Qui si tratta di valutare se tutto ciò ne vale la pena.
Internet per la prima volta ha consentito a tutti (il popolo, quelli una volta definiti sudditi) di poter finalmente partecipare al dibattito pubblico, poter contribuire alla formazione dell'opinione pubblica, laddove nell'epoca pre-Internet i giornali e la televisione consentivano tale diritto alle sole élite. La Sezione 230 è sotto attacco da molte parti, compreso Trump (il quale però nelle sue cause private invoca tale immunità per sé), ma anche in Europa ci sono sempre più attacchi contro la libertà che consente Internet. Si tratta di capire come ridurre le negatività che comporta l’apertura della libertà di espressione a tutti senza però rinunciare alla tutela della libertà e dei diritti dei cittadini. Ne va della nostra democrazia.
Immagine in anteprima: The Pancake of Heaven!, CC BY-SA 4.0, via Wikimedia Commons