Post Diritti Digitali

Per un’Intelligenza Artificiale che metta al centro i diritti umani

4 Ottobre 2024 7 min lettura

author:

Per un’Intelligenza Artificiale che metta al centro i diritti umani

Iscriviti alla nostra Newsletter

6 min lettura

di Daniel Leufer

Dopo che Open AI ha lanciato ChatGPT nel 2022, il mondo è stato assorbito dal clamore suscitato dalla cosiddetta intelligenza artificiale generativa (IA), con le autorità di regolamentazione che ora si affannano per arginarne i danni e gli eccessi. Ma non si tratta certo di una novità. Già nel 2018, quando i progressi nell'apprendimento automatico hanno portato a un boom di entusiasmo per l'IA, abbiamo assistito a un'esplosione analoga di “linee guida etiche sull'IA” e altre proposte di autoregolamentazione. All'epoca, associazioni come Access Now hanno chiesto strumenti giuridici applicabili e basati sui diritti umani, lanciando la Dichiarazione di Toronto alla RightsCon 2018, con cui si il rispetto del diritto all'uguaglianza e alla non discriminazione nei sistemi di apprendimento automatico. Da allora, le organizzazioni per i diritti digitali si sono sempre battute per una governance dell'IA incentrata sui diritti umani. Ma il loro impegno è minacciato da più parti, mettendo così a rischio la possibilità di creare un mondo in cui lo sviluppo dell'IA serve le persone, anziché sorvegliarle e sfruttarle.

Dopo sei anni, sarebbe perdonabile quell'osservatore occasionale che pensasse ormai risolta la questione della governance dell'IA. Dopo tutto, solo quest'anno abbiamo assistito all'adozione dell'AI Act dell'UE, della Convenzione quadro del Consiglio d'Europa sull'intelligenza artificiale e i diritti umani, la democrazia e lo stato di diritto e di innumerevoli altre proposte di regolamentazione internazionali, tutte apparentemente fondate sul quadro dei diritti umani.

Le Nazioni Unite sono intervenute di recente con due risoluzioni complementari, trovando un consenso all'Assemblea Generale sul fatto che l'IA ha un impatto sui diritti umani e adottando persino un linguaggio lodevole che avverte che alcuni usi dell'IA sono incompatibili con i diritti umani. Il Comitato consultivo di alto livello sull'IA delle Nazioni Unite ha appena pubblicato un rapporto in cui ribadisce che “la governance dell'IA non avviene nel vuoto” e “che il diritto internazionale, in particolare il diritto internazionale dei diritti umani, si applica in relazione all'IA”. Tuttavia, la realtà attuale è tutt'altro che rosea.

Cosa ostacola una governance dell'IA incentrata sui diritti?

Il primo problema è che gli stessi strumenti giuridici che vengono celebrati come innovativi, come l'Atto UE sull'IA e il Trattato del Consiglio d'Europa, sono così pieni di eccezioni, esenzioni e deroghe che si fanno gioco di qualsiasi pretesa di promuovere una governance dell'IA basata sui diritti. La legge europea sull'IA non riesce a vietarne gli usi più pericolosi, discrimina arbitrariamente le persone migranti ed esenta le autorità preposte all'applicazione della legge e alla migrazione dai requisiti di trasparenza.

Nel frattempo, entrambe le risoluzioni dell'Assemblea generale delle Nazioni Unite sopra citate - guidate rispettivamente dagli Stati Uniti e dalla Cina - parlano esplicitamente solo del “dominio non militare”; la risoluzione della Cina specifica inoltre che “non tocca lo sviluppo o l'uso dell'intelligenza artificiale per scopi militari”, mentre nessuna delle due risoluzioni riconosce i costi ambientali dell'IA.

Secondo l'European Center for Not-for-Profit Law (ECNL), durante l'intero negoziato del Trattato sull'IA del Consiglio d'Europa “sono stati palesemente ignorati gli appelli a rispettare gli impegni di protezione orizzontale dei diritti umani senza esenzioni generalizzate, a evitare doppi standard per il settore pubblico/privato e a scongiurare impegni formulati in modo vago che trasformano i diritti in principi generali”. Questo doppio standard emerge in modo eclatante dal fatto che Israele ha firmato il trattato nonostante impieghi sistemi distopici di puntamento AI per automatizzare e velocizzare la produzione di liste di uccisioni di massa a Gaza. Come nota giustamente Mona Shtaya di Digital Action, questa contraddizione tra gli impegni presi sulla carta e la realtà sul campo non solo “rivela una preoccupante ipocrisia”, ma “solleva anche seri interrogativi sull'impegno della comunità internazionale in termini di trasparenza e responsabilità”.

Oltre alle deroghe troppo ampie in materia di sicurezza nazionale e di difesa, abbiamo assistito anche a un'enorme spinta da parte delle lobby industriali per annacquare gli obblighi e ritagliare ampie deroghe. Abbiamo persino sentito inviti a escludere di default gli attori privati dall'ambito di applicazione del Trattato sull'IA. L'innovazione, la competitività nazionale e altri concetti nebulosi sono stati sbandierati come minacciati dagli sforzi per proteggere i diritti delle persone. Il dogma è diventato “modelli più grandi e più IA ovunque, a tutti i costi”, anche quando questi costi sono umani, naturali o ambientali.

Un'ulteriore e più complessa minaccia alla governance basata sui diritti umani è la crescente influenza di organizzazioni e individui allineati con la comunità degli altruisti efficaci (EA), che gode del sostegno di molti miliardari. Chiunque partecipi ai dibattiti sulla politica dell'IA avrà notato il moltiplicarsi di organizzazioni di difesa, spesso con la parola “futuro” nel nome, che si concentrano sulla cosiddetta “sicurezza dell'IA", sui rischi "a lungo termine” o “esistenziali” dell'IA. In alcuni casi, queste organizzazioni sono state collegate a filosofie razziste ed eugenetiche, tuttavia anche le più moderate adottano un approccio radicalmente utilitaristico alla governance dell'IA; un approccio che non solo è fondamentalmente disallineato rispetto ai diritti umani, ma che distrae anche dai danni reali dell'IA concentrando l'attenzione del pubblico su rischi speculativi.

A distogliere dal focus sugli impatti negativi dell'IA è inoltre il comprensibile desiderio di un'equa distribuzione dei benefici. La maggior parte delle risorse, del potere e del know-how legati all'IA sono concentrati all'interno di poche aziende e paesi; si stima che il Nord America rappresenti almeno il 40% del fatturato globale dell'IA. Gran parte del dibattito politico internazionale si concentra quindi sulla creazione di risorse e sull'aumento dell'accesso alle infrastrutture tecniche, alla potenza di calcolo, ai dati e ai talenti, come parte di un più ampio sforzo di trasformazione digitale.

Questi fattori si combinano per minare i tentativi di adottare un approccio all'IA centrato sui diritti, favorendo al contempo gli operatori del settore che preferirebbero evitare interventi normativi decisi. Persino gli standard efficaci, ma in gran parte volontari, sviluppati per decenni dalla comunità del software libero e open source vengono distorti da aziende desiderose di lanciare prodotti non testati sul mercato globale. Nel frattempo, l'energia e l'attenzione delle autorità di regolamentazione continuano a essere prosciugate dalla paura di rischi fantascientifici che non si materializzeranno mai, mentre si ignorano le reali violazioni dei diritti umani perpetrate dalla sorveglianza alimentata dall'intelligenza artificiale, dalla distorsione del nostro ecosistema informativo e dall'aumento della violenza di genere online e del materiale pedopornografico (CSAM).

Cosa deve essere fatto e perché è importante?

In breve, gli sviluppi dell'IA non possono portare benefici alle persone senza il rispetto dei diritti umani. Organismi internazionali come l'ONU e i suoi Stati membri devono stabilire norme di governance globale dell'IA radicate nel diritto internazionale, iniziando ad agire sui risultati del nuovo rapporto del Consiglio Consultivo delle Nazioni Unite sull'Intelligenza Artificiale. I diritti umani devono essere al centro dei negoziati su strumenti e forum internazionali, come il nuovo Global Digital Compact o l'imminente summit sull'IA che la Francia ospiterà il prossimo febbraio. I governi devono garantire che i difensori dei diritti umani, la società civile e gli organi giuridici abbiano un posto al tavolo delle discussioni sull'IA.

A livello interno, l'ONU deve imporre adeguate valutazioni sui diritti umani quando le sue agenzie acquistano o implementano tecnologie nuove ed emergenti. Gli Stati membri devono finanziare e sostenere adeguatamente l'Alto Commissariato delle Nazioni Unite per i Diritti Umani per espandere il suo lavoro con la società civile, i paesi e le aziende che sviluppano l'IA, anche attraverso il suo servizio di consulenza sui “diritti umani nello spazio digitale”; un'idea affermata nel Global Digital Compact. A livello esterno, le Nazioni Unite devono ampliare le risoluzioni di consenso che hanno ritenuto alcune applicazioni dell'IA incompatibili con i diritti umani, definendo quali siano tali applicazioni (come la sorveglianza biometrica di massa o la polizia predittiva) e adottando misure concrete per vietarle.

Anche le aziende hanno un ruolo in questo processo. Molti dei maggiori sviluppatori di IA si sono impegnati a rispettare i Principi guida delle Nazioni Unite su imprese e diritti umani; le aziende dovrebbero aderire a questo quadro normativo mentre valutano gli impatti sui diritti umani per identificare e mitigare adeguatamente i rischi dell'IA. Ciò significa anche includere la società civile, i difensori dei diritti umani e le comunità colpite nelle discussioni sulla governance dell'IA fin dall'inizio, e non solo come casella da spuntare a posteriori.

Iscriviti alla nostra Newsletter


Come revocare il consenso: Puoi revocare il consenso all’invio della newsletter in ogni momento, utilizzando l’apposito link di cancellazione nella email o scrivendo a info@valigiablu.it. Per maggiori informazioni leggi l’informativa privacy su www.valigiablu.it.

È innegabile che l'uso dell'IA danneggi in modo sproporzionato e discrimini gruppi già emarginati, tra cui donne, persone LGBTQ+ e comunità razzializate. Creare eccezioni e mettere i profitti al di sopra delle persone aggraverà le violazioni dei diritti umani, farà retrocedere le vittorie faticosamente ottenute in materia di privacy e protezione dei dati, accelererà la catastrofe climatica, amplierà le disparità economiche nazionali e globali e, in ultima analisi, consentirà all'IA di accelerare l'ingiustizia anziché apportare benefici all'umanità. In questo scenario, le discussioni sulla progettazione, la portata e la regolamentazione dell'IA rimarranno concentrate nella minoranza globale, anche se le persone della gaggioranza globale sono sfruttate per costruire e testare sistemi di IA, senza tutele di base per i diritti umani o meccanismi di responsabilità. Questo è il futuro distopico promesso da un'IA incontrollata, e non possiamo permettere che questo incubo diventi realtà.

Articolo originale pubblicato da Access Now con licenza CC BY 4.0.

Immagine in anteprima via LinkedIn

Segnala un errore