Post Diritti Digitali

La sfida delle AI etiche: chi controlla il futuro?

12 Gennaio 2025 7 min lettura

author:

La sfida delle AI etiche: chi controlla il futuro?

Iscriviti alla nostra Newsletter

7 min lettura

Le macchine morali

L’ultima moda in tema di tecnologia è l’AI morale, un sistema di intelligenza artificiale che si pone come una sorta di benefattore universale. L’etica dell’intelligenza artificiale è un campo di studio che si occupa di garantire che le AI siano sviluppate in modo responsabile, equo e benefico per l’umanità. Quindi una AI etica è una macchina sviluppata appositamente per promuovere il benessere umano, una macchina che evita di fare danni, che rispetta l’autonomia umana e l’ambiente, e non si propone di sostituire l’essere umano né di manipolarlo. La macchina etica è equa, imparziale, neutrale, e responsabile.

Questo nuovo approdo sembra quasi la risposta alle tante preoccupazioni che si avvicendano in tema di AI. Il techlash ha conquistato le prime pagine dei giornali negli ultimi anni man mano che le tecnologie progredivano e conquistavano più settori. I timori sulla tecnologia, prima relegati in nicchie ristrette, sono esplosi e lo scetticismo è aumentato, spesso con scarsa consapevolezza della problematica, cosa che comporta la proposta di inutili soluzioni.

Sintomatico l’approccio dualistico dei mass media tradizionali, che da un lato magnificano le potenzialità delle AI, proponendole come le soluzioni a tutti i problemi umani: le AI sono in grado di fare tutto, quindi se c’è qualcosa che non sono in grado di fare adesso, la prossima generazione di AI lo farà sicuramente, basta avere più potenza, più dati, più…

Ma dall’altro i media alimentano il timore verso questi strumenti talmente potenti da essere in grado non solo di sostituire l’uomo in tanti compiti, così da buttare per strada milioni di lavoratori con le rispettive famiglie, ma anche di violare le norme in tema di protezione dei dati personali e soprattutto quelle in tema di copyright, così danneggiando irreparabilmente i tanti produttori di opere e drenando i loro profitti. Secondo alcuni le AI sarebbero in grado anche di distruzione di massa.

Questo approccio dualistico evidenzia la scarsa comprensione dello strumento tecnologico, spesso le notizie sono semplicemente sensazionalistiche, tese all’attivazione del lettore più che a informare, ma dall’altro evidenziano anche un approccio strumentale. Le AI sono strumenti potenti, pericolosi, è meglio starne lontani, lasciate lavorare chi ne ha il controllo, insomma non disturbate il manovratore.

Subire o partecipare?

La retorica sulle AI sostanzialmente ci invita a rinunciare alla nostra libertà, alla nostra capacità di incidere sulla società, ci invita a subire piuttosto che a prendere parte ai processi decisionali. Perché, ormai è chiaro, le AI sono sempre più presenti nei momenti decisionali e gestiscono sempre più apparati sociali, prendendo decisioni che ricadono immediatamente su noi esseri umani. E sempre più spesso tali decisioni sono incontestabili. L’uso delle AI è ovviamente una scelta specifica, da parte del datore di lavoro che le usa per ragioni di efficienza economica, ma anche da parte dei governi per ragioni di ottimizzazione della spesa pubblica. Il risultato è che le decisioni vengono delegate a macchine che appaiono sempre più dotate di autorevolezza, in quanto basate sulla matematica e la statistica.

Inoltre, se le decisioni degli esseri umani sono generalmente basate su regole espresse e quindi più o meno facili da capire, le decisioni delle macchine sono decisioni puramente statistiche. Stiamo progressivamente sostituendo le regole sociali a pure correlazioni statistiche, e questo rende del tutto incomprensibili le motivazioni alla base delle decisioni prese dalle macchine. E diventa sempre più difficile contestarle.

L’avvento delle macchine ha, però, sollevato una serie di dubbi e di critiche proprio in relazione a tali aspetti. Ed ecco che emergono gradualmente le “macchine morali”, i nostri consiglieri etici. Le macchine etiche non sono soltanto macchine in grado di pensare come l’uomo, forse meglio dell’uomo, ma macchine in grado di superarci moralmente. Un’idea venduta come estremamente rassicurante, una macchina che già di per sé è neutrale, autorevole, se è anche morale non ha più difetti, non ci sono motivi di dubitare di essa.

Eppure, tutto questo è una falsa sicurezza, che spinge le persone ad accettarne l’uso senza mettere in discussione i limiti delle macchine. L’etica non è una scienza esatta, non è un insieme di regole universali e statiche, ma è profondamente legata al contesto storico, culturale e sociale in cui viene definita. Un’etica modellata sui valori della Germania nazista sarebbe sempre “etica”, ma profondamente inumana. Le macchine, quindi, non sono neutrali, implicano sempre dei valori di base che provengono dalla società sottostante. Le macchine riflettono le convinzioni e i pregiudizi di chi le sviluppa e di chi decide di applicarle in un contesto. Le macchine, una volta programmate, tendono a perpetuare un insieme statico di regole e valori. Mentre l’etica è costantemente in evoluzione, l’etica è dinamica ed evolve in base a esperienze, idee e lotte sociali. Le macchine, invece, tendono a irrigidire il sistema sociale, e l’aura di autorevolezza, di neutralità, di infallibilità, in quanto basate sulla logica e prive del conflitto umano, non autorizzerebbe modifiche al sistema. Se ha funzionato finora perché cambiarlo?

L’idea di una macchina etica può sembrare allettante, ma appare in fin dei conti come una strategia per legittimare l’introduzione delle AI in tutti i settori, anche i più delicati come i triage sanitari. Del resto è un’idea partita proprio da chi le sviluppa, da chi, anche in buona fede, si è reso conto del problema e si è proposto in prima persona di risolverlo. L’etica nella macchina codificherebbe i valori del momento fossilizzandoli in un incubo morale perpetuo. E quei valori rischierebbero di essere lo specchio delle scelte degli sviluppatori delle macchine e dei governanti che le adottano.

Chi decide chi vive e chi muore? Il Trolley Problem è uno scenario morale nel quale una macchina a guida autonoma deve decidere se provocare danni a una persona piuttosto che a un gruppo di più persone. Ma la versione più corretta vedrebbe l’auto a dover decidere se provocare danni al conducente oppure a un passante. Un produttore di auto potrebbe davvero mettere a rischio il proprio cliente che paga centinaia di migliaia di dollari per una sofisticata auto a guida autonoma? Non c’è davvero nessun rischio che nelle pieghe del codice il cliente abbia sempre un po’ più ragione?

Insomma, una macchina morale non rischia di diventare il cavallo di Troia per introdurle in ogni settore e nel contempo nascondere le responsabilità di chi decide e governa dietro un paravento ammantato di logica, matematica e statistica, dietro una apparente infallibilità tecnologica, e così di diventare il grimaldello per eliminare il dibattito pubblico sulle decisioni cruciali per la collettività?

Riequilibrare i rapporti

Si avvicinano tempi bui con un costante arretramento delle democrazie, con una frammentazione dell’ordine sociale, dove gli individui sono sempre più bombardati da informazioni contrastanti, non veritiere e strumentali a specifiche agende politiche non inclusive. L’avvento delle macchine potrebbe essere un modo per risolvere problematiche sociali, ma non dobbiamo mai dimenticare che le innovazioni tecnologiche sono spesso plasmate da chi detiene risorse e potere. La progettazione delle AI richiede investimenti enormi che solo pochi attori globali possono permettersi, e questo concentra il controllo dello sviluppo tecnologico nelle mani di multinazionali e governi influenti. I governi spesso si trovano a favorire le aziende più influenti, per attirare investimenti o semplicemente per mancanza di competenze nel settore.

Poiché la maggior parte delle applicazioni è sviluppata da società private, garantire che l'intelligenza artificiale vada a vantaggio dell'umanità richiederà la ristrutturazione del sistema finanziario per rimuovere gli incentivi che incoraggiano le aziende a ignorare le considerazioni etiche.

Risolvere questo problema è difficile, è un problema sociale e di partecipazione. Occorre una governance trasparente e inclusiva, per garantire che le decisioni non siano prese esclusivamente da un’élite, stabilire standard etici e normativi obbligatori per le AI e che queste siano concretamente ispezionabili. Un esempio concreto di governance trasparente è rappresentato da Wikipedia, una piattaforma collaborativa open-source che si basa su regole condivise e processi decisionali aperti. Ogni modifica o contributo è tracciabile, e chiunque può accedere alla cronologia delle modifiche per verificare le fonti o correggere eventuali errori. Le decisioni sulle politiche editoriali vengono prese tramite discussioni pubbliche e democratiche tra gli utenti, con meccanismi di consenso che garantiscono inclusività e trasparenza. Questo modello dimostra come una governance trasparente e partecipativa possa favorire la fiducia, il controllo distribuito e la sostenibilità di una piattaforma globale.

Occorre favorire lo sviluppo di tecnologie open-source per democratizzare l’accesso alle AI, riducendo la dipendenza da grandi monopoli tecnologici. Occorre soprattutto coinvolgere i cittadini nel dibattuto sulle nuove tecnologie (es. consultazioni pubbliche, corsi gratuiti di alfabetizzazione digitale, ecc...), ma occorre che il dibattito sia basato su educazione e informazioni corrette e non meramente sensazionalistiche: è necessario che i cittadini sappiano come funzionano questi strumenti in modo che possano scegliere correttamente quali richieste porre ai propri governanti. Ad esempio, non sono le AI che ci rubano il lavoro, ma sono i datori di lavoro che scelgono di usarle per questioni di efficienza economica.

È fondamentale che noi cittadini comprendiamo che non possiamo disinteressarci, non possiamo lasciare campo libero, ma dobbiamo comprendere e partecipare, dobbiamo scegliere se “programmare” o “essere programmati”. "La prima opzione permette di accedere al pannello di controllo della società. Scegliere la seconda rischia invece di essere l’ultima vera scelta che si fa" (Frank Pasquale, professore ed esperto di regolamentazione delle nuove tecnologie).

Noi cittadini dobbiamo avere consapevolezza dei nuovi strumenti e partecipare all’utilizzo degli stessi, dobbiamo essere soggetti attivi dell’avvento delle nuove tecnologie e non solo soggetti passivi, dobbiamo combattere il digital divide che oggi si estrinseca non tanto in relazione alla mancanza degli strumenti (tutti abbiamo uno smartphone e quindi un accesso a internet) ma relativamente alla assenza di consapevolezza delle potenzialità dello strumento, dobbiamo ottenere gli strumenti per sviluppare il pensiero critico.

Iscriviti alla nostra Newsletter


Come revocare il consenso: Puoi revocare il consenso all’invio della newsletter in ogni momento, utilizzando l’apposito link di cancellazione nella email o scrivendo a info@valigiablu.it. Per maggiori informazioni leggi l’informativa privacy su www.valigiablu.it.

La tecnologia non è intrinsecamente “buona” o “cattiva”: il modo in cui viene usata e chi la controlla sono le variabili determinanti.

Se io ho un libro che pensa per me, se ho un direttore spirituale che ha coscienza per me, se ho un medico che decide per me sul regime che mi conviene ecc., io non ho più bisogno di darmi pensiero per me. Non ho bisogno di pensare, purché possa solo pagare: altri si assumeranno per me questa noiosa occupazione (I. Kant, Che cos’è l’illuminismo?, 1784). 

Immagine in anteprima: Credits Dall-E

Segnala un errore