La Rete è di tutti / Ma l’intelligenza artificiale fa bene al pianeta?
5 min letturaIn questo nuovo appuntamento di ‘La Rete è di tutti’, il format di Valigia Blu per riflettere — insieme — su come rendere il futuro tecnologico a misura di uomo e democrazia, poniamo una domanda diretta, chiara, ma non per questo semplice: l’intelligenza artificiale fa bene al pianeta?
È la domanda posta dalla nostra ospite odierna, Benedetta Brevini. Brevini è docente di economia politica della comunicazione all’Università di Sydney, visiting fellow del Centre for Law, Justice and Journalism alla City University di Londra e ricercatrice associata alla Central European University di Vienna. Giornalista, ha lavorato in passato per RAI e CNBC, scrive commenti sul Guardian ed è autrice ed editor di diversi saggi, da WikiLeaks al rapporto tra capitalismo, questioni ambientali e informazione.
Soprattutto, Brevini ha di recente pubblicato un breve ma denso e provocatorio testo che pone una domanda essenziale e, per qualche ragione, ancora non posta con la forza che la gravità del tema richiederebbe: Is AI good for the planet?. È la nostra domanda: l’AI fa bene al pianeta?
Altrimenti detto: questa meravigliosa, salvifica, futuribile intelligenza artificiale che promette - ci dicono - di rivoluzionare in meglio ogni aspetto delle nostre vite, poi, è compatibile con la crisi ambientale in corso? L’AI è parte della soluzione all’emergenza climatica, o è invece parte del problema?
Dal testo si evince la risposta, chiara, di Brevini: a “l’AI fa bene al pianeta?” si deve rispondere con “a resounding ‘no’”; un convinto no. L’AI non fa bene al pianeta.
È un’idea forte, gravida di conseguenze, e che contraddice l’atteggiamento di fondo di buona parte dei documenti di policy che si stanno creando al riguardo — dalla strategia nazionale per l’AI del Regno Unito a quella italiana, dall’AI Act che dovrà regolare lo sviluppo dell’intelligenza artificiale nell’Unione Europea (che non considera a sufficienza la questione, dicono gli esperti) alla “responsible AI strategy for climate action” dell’OECD (che pure chiede esplicitamente — e giustamente). In questi testi, nonostante i mille caveat, l’assunto sembra essere sempre lo stesso: l’AI ha il potenziale di contribuire a risolvere - o risolvere e basta - la questione climatica; usiamo più AI, e lo capiremo.
Questo dice anche, in sostanza, l’AI-for-Climate Roadmap della Global Partnership on AI, un’iniziativa globale sostenuta da 18 paesi e lanciata al recente conferenza COP26. Quello che serve è una “guida dettagliata e operativa su come i governi possono favorire applicazioni dell’AI per il clima (AI-for-climate)”, si legge. Insomma, dell’AI si deve fare uso, anche se “responsabile”, trasparente e regolato; che possa essere necessario rinunciare radicalmente all’idea che una società tutta automatizzata e intelligente sia anche sostenibile non sembra rientrare nel novero del possibile, secondo simili progetti di riforma.
E che succede, al contrario, se scopriamo che alcune applicazioni dell’AI sono incompatibili con i nostri Green New Deal? Mistero, dato che la domanda, di norma, non viene nemmeno posta.
Il testo e le ricerche di Brevini legano - in quella che è a tutti gli effetti anche una spiegazione di quello sconcertante silenzio - l’idea di fornire una soluzione tecnologica a base di AI all’emergenza climatica a un progetto ideologico, diverso dalla soluzione dell’emergenza climatica: salvare il capitalismo neoliberista, e lo status quo dei poteri che ne sorreggono l’attuale assetto, di ideologia unica e senza alternative a livello globale. L’AI, scrive Brevini, funge da “ancella del neoliberismo”, “costantemente osannata come un bastone magico capace di salvare il sistema capitalistico dai suoi drammatici fallimenti”.
La ricercatrice scrive anche che è solo grazie all’estrazione, raccolta, analisi e monetizzazione di dati senza precedenti consentita dal “capitalismo della sorveglianza” - cioè quello delle piattaforme digitali - che l’AI ha potuto raggiungere l’attuale livello di sviluppo, e che anzi “gli anni dieci del 2000 saranno ricordati come una nuova era nello sviluppo del capitalismo della sorveglianza, uno sviluppo dalle dimensioni mozzafiato che l’adozione dell’AI negli anni venti del 2000 sta costantemente aumentando”.
La soluzione al capitalismo della sorveglianza e insieme alla questione climatica, sembra dire questa vulgata dominante sull’AI, è più capitalismo della sorveglianza - grazie all’AI.
È la posizione che nel testo viene definita “ecomodernista”: l’espressione tipica della (non) risposta neoliberista alla catastrofe ambientale tramite l’AI. L’ecomodernista, scrive Brevini, “argomenta” infatti “che la tecnologia può risolvere la crisi ecologica senza che ci sia bisogno di affrontare in alcun modo l’intrinseco potere distruttivo dell’ambiente del capitalismo”.
L’AI, in questo senso, diventa uno strumento al servizio del potere costituito, che magnifica e strumentalizza promesse di mirabolanti soluzioni tecnologiche — nella peggiore delle ipotesi, sempre dotate di un grande, rivoluzionario “potenziale” — mentre insieme maschera i realissimi costi ambientali, energetici, materiali dello sviluppo senza freni dell’intelligenza artificiale.
Secondo uno studio dell’Università del Massachussetts, per esempio, l’impatto ambientale derivante dall’addestramento di un modello di natural language processing di livello da pubblicazione accademica consuma “quasi cinque volte le emissioni di una automobile americana media, nel corso del suo ciclo di vita”, o anche, quanto 125 voli andata e ritorno tra New York e Pechino.
Sembra mancare, tuttavia, un metro di riferimento comune per misurare l’impatto ambientale delle diverse applicazioni dell’AI in modo coerente, e costruirci dunque sopra un sistema altrettanto coerente di regole. La domanda di fondo, insomma, resta: possiamo misurarlo davvero, questo impatto ambientale dell’AI? Come? E cosa dice la letteratura scientifica attuale al riguardo?
Restano poi altre, complesse, domande, di cui discutere con Brevini.
Per esempio: anche una volta risolte le questioni metodologiche, che fare dal punto di vista politico? Come in tutti gli ambiti delle applicazioni sociali dell’automazione, le parole d’ordine sono le stesse: imporre requisiti concreti e controllabili di trasparenza, procedure realistiche e attuabili di auditing (in questo caso ambientale), definizioni e criteri di misurazione certi, fondati sulla scienza e implementati dai decisori politici, meglio se per legge; e via regolando. È realistico pensare a qualcosa di simile, visto il quadro delle proposte attuali?
E ancora: è necessario mobilitarsi per riconoscere davvero il costo ambientale dell’AI, visto che è così difficile parlarne? E se fossimo costretti a rinunciare ad alcune sue applicazioni, perché troppo impattanti sull’ambiente? Come si mobilita il consenso intorno all’idea che sia possibile essere costretti a rinunciare a una mirabolante funzione tecnologica del proprio telefonino o sul proprio social preferito per via dell’ambiente?
Da ultimo: si è letto che l’energia richiesta per generare una singola transazione in bitcoin basterebbe per dare energia a una abitazione media statunitense per oltre 70 giorni. Il che ci porta al gran parlare che si è fatto, in questi mesi, di una rete del futuro, decentralizzata, libera, sicura perché basata sullo stesso principio: “web3”. Ricca, creativa: grazie agli NFT. E ancora, di un futuro in cui la rete è tutta intorno a te, e tu sei dentro di lei: il metaverso. Ammesso che le promesse ideologiche dei promotori di queste mirabolanti tecnologie del futuro siano corrette e realistiche, e non una grande speculazione ai danni di tutti e vantaggio di pochi (come sostengono diversi osservatori), sarebbe ecologicamente sostenibile un mondo in cui gli eredi del web 2.0 sono web3, gli NFT e il metaverso? O anche, tornando alla domanda chiave: perché non parliamo del costo ambientale di web3 e metaverso — almeno ora che li stiamo ancora concependo e sviluppando?
Di questo e altro abbiamo parlato con la professoressa Brevini.
Buon ascolto.