Il giudizio di noi uomini è un pendolo che continuamente oscilla fra ottimismo e pessimismo. Questa tendenza si manifesta chiaramente quando ci si trova a doversi confrontare con gli sviluppi tecnologici che negli ultimi decenni hanno modificato il nostro stile di vita.

Umberto Eco, nel lontano 1964, dava alle stampe Apocalittici e Integrati, un saggio che aveva lo scopo di mettere ordine, una volta per tutte, tra i vari giudizi che venivano espressi riguardo alla società di massa. Eco cercò di trovare una giusta e ragionevole via di mezzo tra chi si mostrava entusiasta e chi, invece, aborriva il cambiamento perché, come la saggezza popolare ci insegna, in medio stat virtus

La situazione attuale

Lo stesso discorso si può trasferire, senza particolari modifiche, nella società di oggi, che vede due schieramenti confrontarsi con violenza su diversi temi, come social network, privacy, rapporti personali, aggressività online e deresponsabilizzazione. Fra chi ha cieca fiducia nella nascita di un mondo finalmente giusto, e chi predice la fine della nostra esistenza, anche noi, come il pendolo,  siamo altalenanti nel giudizio sul nostro futuro tecnologico.

Nell’ultimo periodo, ad alimentare il dibattito, sono salite agli onori della cronaca notizie relative a razzismo, pregiudizi e scarsa sensibilità etica delle Intelligenze Artificiali che vengono adoperate dai grandi soggetti internazionali nella gestione dei social network, nei procedimenti di recruitment aziendale, nei sistemi predittivi della polizia e in molte altre applicazioni.

Ebbene, non c’è da stupirsi; la tecnologia non è neutrale. 

Questa è creata dagli umani per i suoi simili, e porta dentro di sé tutti i pregiudizi e lo storico personale di chi la sviluppa. Questa verità viene alla luce chiaramente nelle applicazioni dove la tecnologia ha una voce e si relazione direttamente con i suoi creatori.

Tay, il bot di Microsoft

Nel 2016, Microsoft rilascia su Twitter il suo bot più evoluto, Tay, acronimo per thinking about you, per migliorare le sue abilità conversazionali all’interno del social network. 

In meno di 24 ore Tay comincia ad usare un linguaggio offensivo, sessista e razzista, costringendo Microsoft a ritirare il bot. 

Le cause di questo disastro mediatico vengono presto scoperte: durante quel breve lasso di tempo, l’Intelligenza Artificiale, che non era stata istruita a riconoscere e limitare i comportamenti scorretti, ha imparato dagli utenti stessi di Twitter a utilizzare un linguaggio inappropriato. 

Il sistema di moderazione dei contenuti di Youtube 

Un altro esempio che va citato perché pervasivo nelle nostre vite è il funzionamento del sistema di moderazione dei social network. Come ben sappiamo, nel 90% dei casi è un’Intelligenza Artificiale, addestrata per riconoscere quali siano i contenuti inadatti, a controllare ciò che viene pubblicato sui social. Ebbene, non è raro il caso di utenti che sono stati il bersaglio di un comportamento discriminatorio da parte del sistema di controllo dei contenuti. 

In riferimento a ciò, è interessante l’episodio inerente alla piattaforma di video-streaming YouTube, che ha penalizzato economicamente e in visibilità i contenuti su temi LGBTQ+ di numerosi content creator. In questo caso, il sistema non è stato in grado di distinguere tra temi sessualmente espliciti, e quindi non ammessi, e video che invece mettevano in luce i differenti orientamenti sessuali e di genere degli autori.

I casi noti che possono essere presi in considerazione in questo post sono veramente tanti, e molti altri sono quelli che non hanno ricevuto visibilità mediatica e che per questo ignoriamo.

OpenAI e corsi universitari

In risposta, molti soggetti negli ultimi anni hanno recepito l’importanza del tema e sono corsi ai ripari. OpenAI, società no-profit che vanta fra i propri finanziatori Elon Musk e Bill Gates, si è posta come obiettivo la creazione di un’Intelligenza Artificiale libera, sicura e che possa migliorare la vita di tutta l’umanità, senza discriminazioni. 

Molte università, invece, hanno cominciato a inserire, all’interno delle proprie offerte formative, esami e specializzazioni riguardanti l’etica nell’intelligenza artificiale. Harvard, Stanford, il Massachusetts Institute of Technology; tutte le più importanti fucine di talenti del settore tecnologico hanno finalmente compreso l’importanza di insegnare ai propri alunni che la tecnologia, come abbiamo già detto, non è neutrale e va pensata secondo coscienza. 

Anche in Italia, per quanto i corsi universitari su IA e machine learning siano ancora limitati numericamente e territorialmente, il tema dell’etica applicata alla tecnologia è trattato e sviluppato ovunque. 

In definitiva, la chiave di volta è una sola: ricordarsi che non saranno le macchine a costruire un futuro migliore, ma le persone che le svilupperanno, se avranno a cuore il nostro futuro.

 

Photo by Nadine Shaabana on Unsplash