La Rete è di tutti / Come pensare una infosfera a misura di democrazia
6 min letturaNegli episodi precedenti di ‘La Rete è di tutti’ — il format di Valigia Blu per discutere e immaginare insieme un futuro tecnologico a misura di uomo, diritti e democrazia – ci siamo occupati di alcuni aspetti specifici su cui riflettere: come democratizzare l’AI e renderla femminista; come conciliare lo sviluppo dell’AI e delle nuove tecnologie con la sostenibilità ambientale; come coniugare algoritmi e dignità nel mondo del lavoro.
In questo nuovo episodio allarghiamo lo sguardo, ci allontaniamo ulteriormente dall’attualità e dalla cronaca per porci invece alcune domande fondative, strutturali, sul nostro rapporto con la tecnologia e l’informazione. Perché non siamo più semplici esseri umani, ma “inforgs”, esseri fatti, costituiti di informazione; perché non viviamo più solo nell’ambiente, ma anche e soprattutto nell’“infosfera”, il nostro mondo a sua volta costituito di informazione; in cui le nostre vite non sono più solo offline, ma anche sempre online: non più solo life, ma “onlife”.
Tutti questi termini sono frutto delle ricerche del professor Luciano Floridi, uno dei più riconosciuti e studiati filosofi contemporanei dell’informazione e della tecnologia, a livello globale. Floridi è docente di Filosofia ed Etica dell’Informazione a Oxford, dove dirige il Digital Ethics Lab, e di Sociologia della Cultura e della Comunicazione a Bologna. Ha pubblicato oltre 300 paper in riviste accademiche, e i suoi lavori sono stati tradotti in arabo, cinese, giapponese, russo. Non solo: Floridi ricopre svariati ruoli di prestigio e responsabilità nel mondo della cultura e dell’innovazione digitale, in qualità di direttore di diverse riviste accademiche, come membro dell’Advisory Board del Vodafone Institute for Society and Communications e della Fondazione Leonardo, e in qualità di esperto al lavoro insieme alle istituzioni — dalla Commissione Europea all’Ethics Council tedesco, passando per diversi governi — e a multinazionali tecnologiche — da IBM a Facebook, Google e Tencent.
Con lui abbiamo provato a intavolare un discorso ambizioso su come dovremmo (ri)pensare la tecnologia e il nostro rapporto con la tecnologia — a partire dai suoi effetti più fondamentali: quelli sul modo in cui concepiamo noi stessi e il mondo (ontologico) e su come possiamo conoscere noi stessi e il mondo (epistemologico/gnoseologico).
Nel suo libro più recente – ‘Etica dell’Intelligenza Artificiale. Sviluppi, opportunità, sfide’ (edito da Raffaello Cortina) – il professor Floridi scrive che il miglior modo per concepire la tecnologia è pensarla in termini di “buon design” e di “governance etica”.
Prima ancora, in ogni caso, è necessario supporre che la tecnologia si debba pensare — passaggio che pare scontato e banale, ma non lo è. Come può, dunque, la filosofia aiutarci a pensare e insieme costruire — visto che parliamo di design e di scelte morali concrete — una infosfera a misura di democrazia? Quale è il suo ruolo, e quale — soprattutto — il potere della sua voce, oggi?
È stata questa la domanda di fondo da cui si è avviata la nostra conversazione per poi toccare altre questioni:
– Parte fondamentale dei nostri discorsi sul futuro con la tecnologia è oggi occupata dalla riflessione e dagli sviluppi dell’AI. L’ultimo libro, già citato, scritto dal prof. Floridi, e un altro (ben più agile) saggio, pubblicato insieme al professor Federico Cabitza per Laterza (‘L’intelligenza artificiale. L’uso delle nuove macchine’), parlano di come il fenomeno fondamentale rivelato dallo sviluppo dell’AI — e dal suo annodarsi alla nostra società connessa, all’infosfera — sia la separazione tra agire e necessità di intelligenza per agire. Tra, cioè, agere e intelligere.
Nel testo pubblicato da Laterza Floridi scrive:
“L’AI oggi non è il matrimonio tra ingegneria (artefatti) e biologia (intelligenza almeno animale, se non umana) ma il divorzio dell’agire (agency) dalla necessità di essere intelligenti per avere successo. (…) Questo divorzio tra agency artificiale e intelligenza naturale, tra agere e intelligere, è rivoluzionario”.
Nel suo ultimo libro ne parla come della differenza tra AI produttiva (che mira a produrre intelligenza) e riproduttiva (che mira invece alla riproduzione di comportamento intelligente); di intelligenza cognitiva contro ingegneristica; lo smart contro l’intelligente.
Perché questa è la conseguenza del divorzio di agire e intelligenza: che le macchine possono essere smart senza essere intelligenti:
“Nell’AI è il risultato che conta, non se l’agente o il suo comportamento sia intelligente. Per questo l’IA non concerne la capacità di riprodurre l’intelligenza umana, ma in realtà la capacità di farne a meno”.
Quali sono l’origine e soprattutto le conseguenze di questo essenziale divorzio alla base del concetto di AI?
– Questo divorzio ha inoltre una conseguenza attualissima: quello che Floridi definisce il “potere riontologizzante del digitale e dell’AI”. Ossia, che stiamo riconcependo il reale, fin dal suo fondamento esistenziale, ontologico, come fatto a misura di AI; un mondo per esseri intelligenti, sì, ma nel modo in cui lo sono le macchine.
Scrive Floridi:
“È il mondo che si sta adattando all’AI e non viceversa, per questo l’AI “stupida” funziona così bene. I veri nativi del mondo digitale sono gli agenti artificiali”; “Il mondo sta diventando un’infosfera sempre più adatta alle capacità molto limitate dell’AI”.
E ancora:
“Quando parliamo di città intelligenti (smart cities) intendiamo anche dire che stiamo trasformando gli habitat sociali in luoghi in cui l’AI può operare con successo. (…) il futuro dell’AI sta anche nel rendere sempre di più il mondo un ambiente AI-friendly”.
Con un’altra immagine presa dall’ultimo libro, in cui Floridi definisce il fenomeno “avvolgimento”, potremmo dire che se è più facile per un aspirapolvere robot pulire stanze con i bordi tondi piuttosto che ad angolo retto, secondo questa logica, le case cominceranno a diventare più simili a igloo prima che gli aspirapolvere diventino realmente intelligenti, così da adattarsi a ogni superficie. Il rischio è che tra noi e la tecnologia si instauri una hegeliana dialettica servo-padrone, con l’uomo nella parte del servo e l’AI in quella del padrone — pur restando stupida. Il punto è che faremo di tutto per farla sembrare intelligente.
“Il rischio che stiamo correndo è che, disegnando un mondo digitale a misura dell’agere artificiale e non dell’intelligere umano, le nostre tecnologie e in particolare l’AI potranno finire con il modellare i nostri ambienti fisici e concettuali e “costringerci” o perlomeno invitarci ad adattarci a loro perché questo è il modo più semplice o migliore, o talvolta l’unico, per far funzionare le cose” (p. 174)
Insomma, il welfare automatico non funziona, ma seguendo questa logica deve essere sbagliato il welfare. E allora eccolo venire rimodellato perfino in Europa — lo scandalo più famoso è in Olanda — a misura di sistemi automatizzati (stupidi, discriminatori e opachi).
Come si esce da questo maledettissimo circolo vizioso?
— Floridi scrive:
“I sistemi di AI avranno sempre più successo e perciò saranno sempre più utili, fino al punto di diventare indispensabili”. O ancora, che una delle conseguenze pratiche del divorzio tra agire con successo e agire con intelligenza sia che riusciamo, proprio quando “smettiamo di cercare di produrre intelligenza umana”, a “sostituirla con successo in un numero crescente di compiti”.
Ma non è sempre questa l’esperienza che ne abbiamo dedotto, studiando con AlgorithmWatch gli impatti sociali dell’AI. Al contrario, molti (troppi) sistemi sembrano insieme stupidi e incapaci di produrre buoni risultati — non capaci di buoni risultati proprio perché stupidi.
Quanto è condivisa, la nostra esperienza? Siamo proprio sicuri per esempio che l’AI riproduttiva, ingegneristica, come la definisci tu, stia producendo le soluzioni promesse ai nostri problemi? O forse in settori come la sanità, il welfare, la sicurezza non funziona nemmeno quella?
— In tema di regolamentazione dell’AI, per quanto la questione sia globale, le regole che stiamo sviluppando seguono confini geopolitici, quando non direttamente nazionali, di contrapposizione tra superpotenze. Floridi ne ha scritto insieme a Emmie Hine nel saggio ‘Artificial Intelligence with American Values and Chinese Characteristics: A Comparative Analysis of American and Chinese Governmental AI Policies’.
Da un lato, c’è il tentativo (difficile, ancora lontano dalla meta) dell’Unione Europea di scrivere regole per un futuro con insieme le migliori e più innovative tecnologie e il massimo rispetto dei diritti fondamentali. Ma dall’altro, ci sono altre regole in arrivo. La Casa Bianca per esempio chiede un “AI Bill of Rights” — ma intanto procede spedita secondo una logica prettamente neoliberista che mette al primo posto il business e l’innovazione (secondo una logica che lega, scrive sempre Floridi, il “sublime” tecnologico — concetto caro a Vincent Mosco, per esempio — all’eccezionalismo americano).
Ma c’è poi la Cina, soprattutto, con i suoi progetti di dominio nella competizione globale sull’AI attraverso paternalismo e “fragmented authoritarianism” (un misto di autoritarismo dall’alto e ubbidienza spontanea creativa dal basso). Progetti scritti in piani pluriennali e insieme in regole che sempre più riguardano applicazioni quotidiane — per esempio, gli usi privati del riconoscimento facciale.
Con la guerra, questo scenario è ancora più complicato. L’AI si è vista all’opera sul campo di battaglia (nei droni turchi con cui l’Ucraina ha abbattuto postazioni russe, per esempio), o nella guerra informativa (il riconoscimento facciale di Clearview AI adottato dalle autorità ucraine per riconoscere soldati russi deceduti, e darne notizia di morte alle famiglie). Quanto alla Russia, è famosa una citazione di Putin, che sosteneva già un lustro fa che chi avrebbe dominato l’AI avrebbe dominato il mondo. Ma da questo punto di vista le regole e le convenzioni internazionali tacciono.
Il trionfo dell’AI ingegneristica porterà a guerre ancora più insensate e crudeli? E che minaccia rappresenta per l’umanità un’AI opaca e mal regolata nei sistemi di gestione della guerra (anche nucleare, ahinoi), nell’ottica di una possibile escalation del conflitto? Può la filosofia della tecnologia — e in particolare, l’etica nella tecnologia — riconciliare gli ideali europei, Weber (USA) e Confucio (Cina), e portare a regole globali, per quanto minimali, sullo sviluppo dell’AI?
Le risposte del prof. Floridi nella nostra conversazione. Buon ascolto!
Immagine in anteprima via pixabay.com