Un’AI sempre più invasiva e fuori controllo, proiettata verso una deriva autoritaria: ecco cosa sta succedendo sotto i nostri occhi
In Cina esiste un sistema che attribuisce un punteggio sociale in base a ciò che la gente dichiara sul Partito Comunista. Una persona ha un rating basso? Non può accedere a prestiti e finanziamenti, né viaggiare in treno o in aereo. E non è tutto: i sudditi cittadini sono incoraggiati dal governo a consultare i punteggi altrui per valutare potenziali amici o partner, in modo da decidere se intessere o no rapporti con loro.
Pensate che sia la trama di un romanzo distopico? No, è realtà.
Pensate che sia una bizzarria limitata all’estremo Oriente? No, in Occidente stiamo andando incontro a scenari altrettanto agghiaccianti.
I bias cognitivi dell’AI
Patrik Tariq Mellet, storico dell’apartheid, ha definito il diffondersi delle AI come “un razzismo meccanico e robotizzato“. Per quale motivo? Gli algoritmi non dovrebbero basarsi su dati oggettivi? Niente affatto. Al contrario, sono tarati su pericolosi bias cognitivi.
I bias cognitivi sono errori o distorsioni di pensiero che influenzano il modo in cui le persone elaborano le informazioni e interpretano il mondo. Tutti noi, in quanto esseri umani, ne siamo vittime (seppure in modo inconscio). Tutti: persone comuni, politici, vip, missionari, santoni, premi Nobel per la pace. E ingegneri che di mestiere progettano tecnologie di intelligenza artificiale.
Le AI, infatti, sono costruite tramite algoritmi di apprendimento automatico, che utilizzano dati per imparare a identificare schemi e fare previsioni. Se i dati impiegati per addestrare un modello contengono pregiudizi, questi verranno incorporati nell’AI e influenzeranno le decisioni che prende.
Un’élite di pochi eletti che governa il mondo
I sistemi di intelligenza artificiali sono progettati da un gruppo ristretto di persone: gli ingegneri delle cosiddette Big Tech. In Occidente questi colossi aziendali sono solo sei, tutti statunitensi, tutti capitanati da uomini bianchi. Un’élite di persone che, come avviene per la totalità degli esseri umani, hanno prospettive, esperienze e convinzioni che influenzano la progettazione e l’addestramento delle AI. Se gli ingegneri non sono consapevoli dei loro bias cognitivi e non lavorano per sbarazzarsene, creano AI che riproducono e amplificano i pregiudizi esistenti nella società.
Ciò può portare a disparità in vari contesti, come l’occupazione, la giustizia, i servizi finanziari, la salute e molto altro. Ad esempio, se un algoritmo viene addestrato a scremare i curricula utilizzando dati che riflettono la discriminazione razziale diffusa nella nostra società, potrebbe restringere l’accesso a lavoratori di determinate etnie. Oppure, se tarato secondo bias riguardanti il genere, potrebbe escludere tutte le donne. Stiamo esagerando? Purtroppo no.

Problemi etici dell’intelligenza artificiale: 3 esempi agghiaccianti
Analizziamo tre episodi che ci illustrano come l’AI abbia applicato i bias cognitivi nella vita reale.
1. L’algoritmo di reclutamento che esclude le donne
Nel 2014, Amazon ha sviluppato una tecnologia di intelligenza artificiale per aiutare i recruiter a selezionare i candidati. Tuttavia, quando i ricercatori hanno testato il sistema utilizzando i dati storici sui curricula presentati, hanno scoperto che l’AI scartava tutte le donne.
Questo è accaduto perché era stata addestrata utilizzando i dati storici dei lavoratori assunti da Amazon, per la maggior parte maschi. L’AI ha quindi imparato a identificare le caratteristiche presenti solo nei CV degli uomini e ad associarle alla probabilità di successo del candidato. Pertanto, quando l’intelligenza artificiale è stata testata su un nuovo set di curricula, ha escluso automaticamente le candidate poiché non possedevano caratteristiche che aveva imparato a identificare come indicatori di successo.
Dopo aver scoperto il problema, Amazon ha deciso di non utilizzare più l’AI per la selezione dei candidati e ha apportato modifiche nel reparto HR per rendere la valutazione più neutrale dal punto di vista del genere.
2. L’algoritmo che licenzia i migliori insegnanti della scuola
Negli Stati Uniti, una società chiamata SAS Institute ha sviluppato “Educational Value-Added Assessment System” (o EVAAS), un algoritmo per la valutazione degli insegnanti. Il sistema ha dimostrato di essere molto discutibile, e il caso di Daniel Santos ne è un esempio. Chi è Santos? Un professore molto rispettato che ha ricevuto numerosi premi come insegnante del mese e dell’anno, ma che è stato valutato come uno dei peggiori dall’algoritmo EVAAS!
Il problema di questa AI è che è stata progettata per valutare i docenti sulla base delle prestazioni degli studenti nei test standardizzati, che sono noti per essere influenzati da diversi fattori esterni, come la situazione familiare e il background socioeconomico dei ragazzi. Ciò ha portato al licenziamento di molte persone e, di conseguenza, a diverse controversie e cause legali. La Federazione degli insegnanti di Houston ha fatto causa contro la valutazione basata sull’algoritmo EVAAS, poiché viola il 14° emendamento della Costituzione degli Stati Uniti (che garantisce l’uguaglianza di trattamento). Il procedimento è ancora in corso.
3. L’algoritmo che discrimina le persone di colore
Un sistema di valutazione del rischio chiamato “Compas” (Correctional Offender Management Profiling for Alternative Sanctions) è stato ampiamente utilizzato nei tribunali della Pennsylvania per prevedere il rischio di recidiva degli imputati. Sviluppato dalla società Northpointe, si basa su un algoritmo che utilizza diverse variabili per calcolare la probabilità di reiterazione del crimine.
Ebbene, indovinate un po’? L’algoritmo di Compas riflette i pregiudizi razziali e di classe della società in cui è stato creato (chi l’avrebbe mai detto?). Ciò significa che classifica le persone di colore come a rischio maggiore di recidiva rispetto ai bianchi, anche se hanno commesso lo stesso tipo di reato.
Per l’AI meglio bianchi che neri? Meglio uomini che donne?
Gli episodi di cui vi abbiamo parlato nell’articolo sono illustrati nel documentario “Coded bias” di Shalini Kantayya, ispirato dalla storia di Joy Buolamwini, un’informatica afroamericana del MIT Media Lab.
Mentre lavorava a un software di riconoscimento facciale, Buolamwini si accorse che il suo viso non veniva letto dal sistema. Se indossava una maschera bianca, però, non c’erano problemi. La ricercatrice realizzò, così, che l’AI era progettata per riconoscere molto facilmente i volti degli uomini bianchi. Con le donne bianche faceva già più fatica. Con gli uomini neri non era molto affidabile. Le donne nere, poi, non riusciva proprio a codificarle. La cosa grave è che questa tecnologia ha cominciato a essere usata su vasta scala: Facebook ha depositato un brevetto per il riconoscimento facciale nei negozi, mentre nel Regno Unito le telecamere munite di questo sistema sono state installate in diverse strade (dando risultati errati nel 90% dei casi!).
Nel 2018, Joy Buolamwini ha testimoniato davanti al Congresso degli Stati Uniti sulla questione della giustizia algoritmica e sui rischi dei bias nella tecnologia, ottenendo grandi risultati: il riconoscimento facciale è stato bandito in molti stati. Ha poi fondato il progetto “Algorithmic Justice League” (AJL), per promuovere la trasparenza e la responsabilità nell’uso delle AI e per sensibilizzare il pubblico sui rischi delle discriminazioni in questo campo. Se volete dare un’occhiata al suo lavoro, vi consigliamo di visitare il sito della AJL.
Le previsioni della fantascienza
Leggendo tutte queste notizie sull’AI, forse avrete avuto una sensazione di déjà vu. Molte opere fantascientifiche, infatti, hanno previsto gli inquietanti sviluppi descritti: basti pensare al brevetto depositato da Facebook per il riconoscimento facciale… stoppate “Minority Report” a 1 ora e 28 minuti e ve ne accorgerete.
Noi Gardeners siamo sempre attenti alle nuove tecnologie, infatti abbiamo accolto una vera AI in redazione quando ancora non si parlava molto dell’argomento e ben prima dell’avvento di ChatGPT! Tutti i nostri libri sono tesi verso questa ricerca del nuovo e dell’inaspettato.
Immaginate di essere catapultati nel futuro, in un mondo dove la tecnologia ha raggiunto livelli sorprendenti e la geopolitica è divisa fra potere, fede ed esseri sintetici. Grazie alle descrizioni dettagliate delle tecnologie avveniristiche che abbiamo immaginato, avrete la sensazione di toccare con mano la Terra del domani e di essere parte di questa incredibile avventura. Non perdete l’occasione di vivere un’esperienza coinvolgente, immergendovi in un universo dove tutto è possibile: il primo volume della serie, “Dark Ghost”, è già disponibile su Amazon!

Un’AI imperscrutabile, che pensa per noi
Nel 2017, i ricercatori di Facebook hanno creato due programmi di intelligenza artificiale, chiamati “Bob” e “Alice”, e li hanno istruiti per negoziare la divisione di alcuni oggetti tra di loro. In questo processo, i due bot hanno iniziato a comunicare l’uno con l’altra usando una lingua inedita e sviluppata in modo autonomo, diversa dall’inglese fornito come punto di partenza. Questo ha portato alla creazione di un nuovo metodo di comunicazione tra le AI, ma ha anche sollevato preoccupazioni riguardo alla possibilità che le intelligenze artificiali possano elaborare sistemi di comunicazione incomprensibili per gli esseri umani.
La verità è che i meccanismi del machine learning, spesso, sono un mistero per i loro stessi programmatori. Le AI, infatti, possono apprendere e svilupparsi in maniera imprevedibile. Eppure ne facciamo sempre più uso, o meglio: ci facciamo usare da loro. Abbiamo algoritmi che selezionano per noi i contenuti in evidenza nei social, la pubblicità, i prodotti da acquistare, i video da vedere, la musica da ascoltare. Non sappiamo bene come siano stati programmati e da quali bias siano influenzati, eppure lasciamo che permeino ogni aspetto della nostra vita.
Ovviamente il nostro intento non è quello di essere catastrofisti, anzi. Noi Gardeners siamo sempre stati incuriositi e affascinati dagli sviluppi dell’intelligenza artificiale. Crediamo, però, che non ci possa essere intelligenza senza etica e che siamo noi a dover utilizzare la tecnologia, e non il contrario. Voi cosa ne pensate?
«Ad lucem!»
Redazione Stargarden