C’è una lotta attorno all’intelligenza artificiale e il giornalismo è al centro
|
Si parla molto di cosa sia o non sia l'intelligenza artificiale (IA). È solo statistica applicata on steroids? È una forma di nuovo sovrano digitale in grado di distruggere l'umanità? Di conseguenza, come dovremmo rapportarci noi, esseri umani, con questa tecnologia? Queste domande puntano tutte in una direzione: la costruzione sociale dell'IA e il ruolo che vogliamo attribuirle in futuro sono attualmente parte di una negoziazione in cui sono coinvolti vari settori della nostra società.
Da un lato, gli imprenditori tecnologici e la politica hanno mostrato la tendenza a guardare all'IA come a qualcosa di estraneo alla nostra realtà: una superpotenza, una forma di intelligenza a sé stante, qualcosa che agisce dall'esterno del nostro pianeta, capace di cambiarlo profondamente o addirittura di distruggerlo. Queste narrazioni sono profondamente problematiche, perché finiscono sistematicamente per offuscare le discussioni più necessarie e urgenti sugli impatti reali e già tangibili dei sistemi di IA, nascondendoli sotto un velo di visioni longtermist e di preoccupazioni esistenziali, ma del tutto speculative (come avvenuto anche di recente all’AI Safety Summit di Bletchley Park). Inoltre, queste affermazioni sono spesso retoricamente fondate sull'ipotetica – e impossibile da verificare - creazione di una superintelligenza artificiale, cosciente e potenzialmente ostile nei confronti degli esseri umani, la cui esistenza è ancora solo parte delle narrazioni fantascientifiche, e probabilmente lo sarà sempre.
D’altro canto, ricercatori e organizzazioni della società civile spingono per una narrazione più sfumata, critica e alternativa dell'IA. Queste voci sostengono che i sistemi e gli algoritmi di IA, quando vengono utilizzati in contesti reali, mostrano diversi limiti e outcome problematici: possono discriminare, sono effettivamente parziali e sono inclini ad accelerare ed esacerbare in scala le disuguaglianze e le problematiche sociali già esistenti. Una recente inchiesta di The Markup, una testata statunitense specializzata in algorithmic accountability, ha mostrato come i sistemi di polizia predittiva, alcune delle applicazioni di IA più hypate in assoluto, falliscano clamorosamente quando si tratta di prevedere i crimini. In sostanza, non funzionano. Anche altri sistemi, tra cui il riconoscimento facciale e gli algoritmi utilizzati nella pubblica amministrazione, hanno mostrato problemi simili. In sintesi: l'IA è fallace, parziale e tutt'altro che neutrale e lo sarà sempre, soprattutto quando si tratta di “leggere” gli esseri umani e i loro comportamenti.
Come dimostrano i risultati della nostra ricerca, i media tendono spesso a privilegiare affermazioni sensazionalistiche sui poteri dell'IA, offuscando riflessioni più realistiche sugli effettivi errori di cui questi sistemi possono essere responsabili, mettendo così da parte anche analisi critiche approfondite su ciò che l'IA è effettivamente in grado di fare. Eppure, come dimostra anche il recente esempio di The Markup, e una serie di altre inchieste simili pubblicate anche in Europa, queste discussioni critiche hanno iniziato lentamente a emergere nella copertura giornalistica complessiva. Questo è il sintomo di come l'IA stia progressivamente diventando qualcosa di finalmente soggetto alla stessa spinta di accountability che altre forme di potere solitamente incontrano da parte del giornalismo. È un passo avanti fondamentale.
In questa fase, il giornalismo è il luogo in cui stiamo costruendo il ruolo che l’IA avrà nella nostra società. Partendo da una prospettiva di costruttivismo sociale della tecnologia, si può sostenere che l'IA sia attualmente plasmata dai media e attraverso la lotta di narrazioni concorrenti che i media ospitano. Ciò avviene attraverso una costante negoziazione di opinioni su ciò che l'IA dovrebbe o non dovrebbe essere o fare. L'aspetto particolarmente interessante del giornalismo è che, se da un lato è il luogo in cui si forma il dibattito pubblico sull'IA e dove questo prende forma, dall'altro è anche un campo che sarà trasformato da queste stesse tecnologie.
Ecco perché studiare le esperienze biografiche dei giornalisti e delle giornaliste e comprendere come concettualizzano l'IA e gli algoritmi è diventato più che mai cruciale. L'eccellente conferenza accademica "Future of Journalism", organizzata dalla School of Journalism, Media and Culture (JOMEC) dell'Università di Cardiff lo scorso settembre è stata particolarmente affascinante. Alla conferenza, le presentazioni sull'IA hanno costituito una parte considerevole del programma di due giorni che ha riunito lo stato dell'arte degli studi sul giornalismo. Partecipare alla conferenza è stato energizzante e stimolante e le numerose ed eccellenti presentazioni in questo ambito hanno lasciato emergere un senso di urgenza e di prontezza intorno a questioni come l'IA generativa e il suo potenziale scontro con i valori dell'informazione e con i presupposti etici del giornalismo; le questioni relative alla misinformazione e alla disinformazione; l'automazione del lavoro giornalistico e le politiche editoriali necessarie per l’adozione di strumenti di IA per produrre informazione. Si tratta senza alcun dubbio di questioni esistenziali per il giornalismo come business, come cultura e come attore fondamentale della democrazia.
Tuttavia, sembra che attualmente gli studi sul giornalismo guardino all'IA soprattutto da un punto di vista interno, interrogandosi su come i sistemi di IA cambieranno la pratica del giornalismo o su come influiranno sulle forme che il giornalismo assumerà. Sebbene sia innegabile che queste siano domande cruciali anche per immaginare il futuro del giornalismo stesso, allo stesso tempo sono convinto che questa prospettiva debba essere completata da un'analisi più ampia in grado di analizzare più in profondità come il giornalismo in generale stia venendo a patti con l’idea di l’essere il luogo in cui quella lotta intorno all'IA è in atto. Questo è particolarmente importante perché l’esito di quella lotta va ben oltre il giornalismo stesso. Per farlo, è quindi necessario anche un punto di vista esterno, in grado di capire come i giornalisti e le giornaliste si posizionano in questa lotta, come vi contribuiscono e partendo da quali presupposti. Per questo motivo abbiamo deciso di realizzare un nuovo capitolo di ricerca nello Human Error Project, in cui sono coinvolto all’Università di San Gallo, in Svizzera.
Dopo aver esaminato le organizzazioni della società civile e gli imprenditori tecnologici, lo Human Error Project ha intrapreso questa traiettoria di ricerca anche in direzione del giornalismo, concentrandosi sul modo in cui i reporter europei ragionano attorno agli errori dell'IA, su come ne negozino il significato e su quali siano le loro opinioni su questi temi in generale. Lo stiamo facendo intervistando i giornalisti e le giornaliste europee che seguono il beat più critico dell'IA, con l'obiettivo di raccontare al pubblico i sistemi di IA quando falliscono e discriminano o di smascherare le narrazioni dell’IA meno appartenenti alla realtà, come i fin troppo dibattuti “rischi esistenziali”. Questo beat è ancora una nicchia e un settore molto specializzato anche per il giornalismo tecnologico, ma è allo stesso tempo lo spazio in cui la lotta sull'IA sta realmente prendendo forma, dove gli "errori dell’IA" servono come punto di partenza di discussioni più ampie sul nostro futuro con questa tecnologia.
Quando si parla di IA, è certamente questo il tempo di grandi domande per la nostra società. A quali risposte arriveremo dipenderà in buona parte dall'esito della lotta odierna sulle narrazioni dell'IA nel giornalismo. I risultati preliminari della nostra ricerca, che abbiamo presentato alla conferenza "Future of Journalism" di Cardiff, indicano che per i giornalisti che si occupano criticamente di AI oggi, gli “errori” della tecnologia appaiono già estremamente reali e significativi. A loro avviso, gli errori dell'IA di oggi sono una potenziale anticipazione delle future lotte sociali che il giornalismo sarà chiamato a raccontare. E senza dubbio, quelle storie non saranno scritte utilizzando ChatGPT.
*Articolo pubblicato originariamente in inglese sul sito dello Human Error Project.“The Human Error Project” è un progetto di ricerca lanciato dalla Prof. Veronica Barassi presso la School of Humanities and Social Sciences dell’Universtà di San Gallo, Svizzera. L’obiettivo del progetto è mappare i discorsi e ascoltare le storie umane di diversi settori della società, per cercare di capire come gli errori dell'IA - quando si tratta di profilazione degli esseri umani in particolare - vengono vissuti, compresi e negoziati. Il team di ricerca sta conducendo ricerche in tre diverse aree della società in cui si svolgono i conflitti sulla profilazione algoritmica in Europa: i media e i giornalisti, le organizzazioni della società civile e gli imprenditori tecnologici critici. Per tutti questi diversi settori della società stiamo raccogliendo dati principalmente attraverso tre metodologie principali: l'analisi critica del discorso, la mappatura organizzativa e la raccolta di 100 interviste in profondità. Per maggiori informazioni: thehumanerrorproject.ch
Immagine in anteprima: Foto di Matthew Henry su Unsplash