Diritti e doveri dell'Intelligenza Artificiale: a che punto è la legge?

AI e legge
artificial intelligence human technology society

L’Intelligenza Artificiale ne ha fatta di strada negli ultimi anni: crescendo in possibilità, abilità e diffusione, è entrata nella nostra vita di tutti i giorni, condizionandone le abitudini.

Per mano dell’iniziativa privata, gli algoritmi oggi regolano il nostro comportamento sui social, le preferenze per film e giochi, la possibilità di richiedere un mutuo o un prestito, la possibilità di avere successo in un colloquio di lavoro, e così via.

Affascinate e allo stesso tempo diffidenti nei confronti di questa nuova tecnologia, l’opinione pubblica e le istituzioni si trovano nella situazione di dover bilanciare gli innumerevoli vantaggi che le AI offrono con i rischi che comportano per i nostri diritti.

È quindi nata la necessità, condivisa tra Unione Europea e Stati Uniti, di regolamentare l’utilizzo delle Intelligenze Artificiali su più fronti, per evitare che i privati si ritrovino in mano più potere e responsabilità di quanto possano realmente controllare.

In questo approfondimento vedremo le caratteristiche delle norme più recenti – AI Bill of Rights e AI Act, al momento non vincolanti – che dovrebbero già nei prossimi anni diventare il punto di riferimento per la regolamentazione dell’Intelligenza Artificiale nel mondo.

AI Bill of Rights

Stilato dall’Ufficio per le politiche scientifiche e tecnologiche (Office of Science and Technology Policy, OSTP) della Casa Bianca a inizio ottobre 2022, l’AI Bill of Rights contiene una serie di linee guida per l’utilizzo ottimale dell’Intelligenza Artificiale e dei sistemi automatizzati ad essa connessi.

L’AI Bill of Rights non costituisce ancora una proposta di legge, né menziona pene o sanzioni per i sistemi automatizzati che non rispettano queste regole: è piuttosto da intendersi come una serie di raccomandazioni non vincolanti alle aziende e organizzazioni governative che intendono usufruire o fanno già uso delle Intelligenze Artificiali.

Il documento delinea 5 princìpi in base a cui regolamentare la progettazione e l’implementazione dell’Intelligenza Artificiale: il testo fa riferimento in particolare al settore pubblico statunitense, ma le indicazioni contenute possono essere applicate anche in altri contesti in cui se ne fa uso.

1 – Sistemi sicuri ed efficaci

I cittadini dovrebbero essere protetti dall’utilizzo di sistemi potenzialmente poco sicuri o inefficaci, che possono arrecare danni nei confronti del singolo e/o della comunità.

Per questo motivo i sistemi automatizzati, ancora prima di essere implementati, dovrebbero essere sottoposti a test indipendenti che ne valutino l’efficacia e la sicurezza.

2 – Protezioni contro la discriminazione algoritmica

Le Intelligenze Artificiali dovrebbero essere progettate e utilizzate in modo equo, adottando misure preventive per prevenire il rischio di discriminazione algoritmica.

Per “discriminazione algoritmica” si intende una disparità di trattamento da parte di un sistema automatizzato sulla base di criteri etnici, sociali o culturali.

3 – Protezione dei dati personali

I sistemi automatizzati dovrebbero contenere by design opzioni relative alla protezione dei dati personali e della privacy degli utenti e dovrebbero raccogliere solo i dati strettamente necessari al loro funzionamento.

Il punto fa riferimento anche alla necessità di stabilire un consenso esplicito da parte dell’utente, in modo non dissimile da quanto avviene in Unione Europea con il GDPR.

4 – Avvisi e spiegazioni

Bisognerebbe sempre sapere se e quando ci si sta interfacciando con un sistema automatizzato e quali sono gli eventuali impatti dell’interazione.

La trasparenza nell’utilizzo delle Intelligenze Artificiali include la necessità di esplicitare non solo la presenza della tecnologia in questione, ma anche il suo funzionamento, in linguaggio chiaro e accessibile a più persone possibile.

5 – Alternative umane, valutazioni e riserve

I cittadini dovrebbero essere sempre in grado di scegliere un’alternativa umana a un sistema automatizzato, nelle modalità in cui questa scelta risulti fattibile e appropriata.

La presenza di figure preposte alla supervisione e al monitoraggio è particolarmente raccomandata negli ambiti considerati “più sensibili”: la giustizia penale, le risorse umane, l’istruzione e la salute.

AI Act (Unione Europea)

L’AI Bill Of Rights rappresenta un importante segnale da parte degli Stati Uniti, superpotenza mondiale culla delle Big Tech, ma dal punto di vista della regolamentazione dell’Intelligenza Artificiale l’Unione Europea ha già compiuto diversi passi avanti.

L’AI Act, presentato nella primavera del 2021 e attualmente in fase di discussione tra il Parlamento Europeo e gli Stati membri, è un atto legislativo che punta ad applicare il principio della trasparenza e del rispetto dei diritti umani alla progettazione e all’utilizzo delle Intelligenze Artificiali.

L’obiettivo dell’AI Act è la regolamentazione dell’intero settore della produzione e della distribuzione dei sistemi automatizzati sul territorio europeo, in accordo con la normativa vigente negli Stati membri e con il Regolamento Generale sulla Protezione dei Dati (GDPR).

L’AI Act presenta diversi punti di contatto con il più recente AI Bill Of Rights, dal quale si distingue per un taglio maggiormente normativo: prevede infatti l’obbligo di registrazione preventivo di questo tipo di tecnologia e il divieto di utilizzare tipologie di Intelligenza Artificiale ritenute “a rischio inaccettabile”.

Quali sono le AI ad alto rischio?

Il testo dell’AI Act suddivide le intelligenze artificiali in quattro classi di rischio, calcolate proporzionalmente in base alle potenziali minacce alla salute, alla sicurezza o ai diritti fondamentali delle persone.

Rischio inaccettabile

Rientrano in questa categoria le Intelligenze Artificiali che fanno uso di pratiche come la profilazione per fini coercitivi o di social scoring, oppure utilizzano tecniche subliminali, ovvero distorcono i comportamenti delle persone per provocare danni fisici o psicologici.

I sistemi di Intelligenza Artificiale a rischio inaccettabile sono da ritenersi proibiti, in quanto contravvengono nel loro funzionamento ai valori dell’Unione Europea e a diritti umani fondamentali come la presunzione di innocenza.

Rischio elevato

Rientrano in questa categoria i sistemi di Intelligenza Artificiale che hanno il potenziale di influire in modo significativo sull’andamento della democrazia o sulla salute individuale o collettiva.

Sono dunque considerate Intelligenze Artificiali ad alto rischio:

  • I sistemi utilizzati nell’istruzione o nella formazione professionale per la valutazione delle prove o l’accesso agli istituti;
  • I sistemi utilizzati per l’assegnazione di decisioni nei rapporti di lavoro e in ambito creditizio;
  • I sistemi destinati all’amministrazione della giustizia e alla prevenzione, l’accertamento, l’indagine e il perseguimento dei reati;
  • I sistemi destinati all’utilizzo nella gestione della migrazione, dell’asilo e del controllo delle frontiere.

L’AI Act dedica particolare attenzione alle applicazioni ad alto rischio dell’Intelligenza Artificiale. Queste ultime potranno essere immesse sul mercato, ma solo se rispettano una serie di requisiti obbligatori orizzontali che ne garantiscano l’affidabilità e se avranno superato diverse procedure di valutazione di conformità.

Rischio limitato

Rientrano in questa categoria i sistemi come i chatbot o i deepfake, che possono originare un rischio di manipolazione quando la natura dell’agente conversazionale non è resa chiara all’utente.

Per i sistemi di Intelligenza Artificiale considerati a basso rischio, l’atto impone ai produttori un codice di condotta basato sulla trasparenza delle informazioni condivise con il pubblico, che dev’essere consapevole in ogni momento di stare interagendo con una macchina.

Rischio minimo

Rientra in questa categoria la stragrande maggioranza dei sistemi esperti, automatizzati e di Intelligenza Artificiale attualmente utilizzati sul territorio europeo.

Per i sistemi di Intelligenza Artificiale considerati a rischio minimo le disposizioni lasciano ai fornitori la libertà di aderire ai codici di condotta e di affidabilità su base volontaria.

AI Liability Directive: verso la regolamentazione

A fine settembre 2022, proprio qualche giorno prima che oltreoceano si pubblicasse l’AI Bill Of Rights, la Commissione Europea ha rilasciato l’AI Liability Directive, una proposta legislativa sulle responsabilità giudiziarie dell’Intelligenza Artificiale.

In altre parole, questo documento rappresenta un primo passo verso l’applicazione di provvedimenti legali nei confronti degli individui o degli enti che subiscono danni connessi all’uso di questo tipo di tecnologia.

Nell’AI Liability Directive la Commissione Europea spartisce inoltre l’assunzione di responsabilità legale tra diversi soggetti: in primis ricadrà sulle società che mettono a disposizione l’Intelligenza Artificiale, ma coinvolgerà anche altri attori dell’intera supply chain, non ultimi gli utenti stessi.

Conclusione: è giusto limitare l’innovazione?

Non è mai corretto limitare l’innovazione, e peraltro lo scopo di norme e leggi ben scritte non è mai quello di bloccare la crescita di una tecnologia.

Le norme vivono nella cultura e nella storia in cui sono scritte, ne seguono la sensibilità e semplicemente indirizzano le tecnologie verso i bisogni più sentiti del momento, limitando i pericoli di creare danno alla società.

Non è infatti vietato – per fare un esempio – ricercare nuove terapie e medicinali grazie alle tecnologie genetiche; è invece vietato clonare un essere umano.

L’Intelligenza Artificiale non farà eccezione: come dimostrano le proposte messe sul tavolo negli ultimi anni da Unione Europea e Stati Uniti, nel prossimo futuro questa tecnologia sarà soggetta a regole che porteranno i produttori ad assumersi le responsabilità necessarie per i prodotti e i servizi che immettono sul mercato.

L’intento che guida questi provvedimenti è quello di preservare le libertà individuali e collettive. Si potrà innovare senza rischiare la libertà delle persone solo attraverso il controllo di realtà terze, alla luce della contemporaneità e grazie ai contributi di diverse aree di competenza – dalle scienze pure alla giurisprudenza, passando per data science e discipline umanistiche.

Noi di Neosperience siamo esploratori dell’innovazione. Ciò che ci ha guidato nello sviluppo dei nostri algoritmi di Intelligenza Artificiale, all’analisi del comportamento utente alla semplificazione dei processi aziendali, è la volontà di portare le persone e le organizzazioni in un ambiente digitale più umano e più empatico.

contenuti simili

Le Figure Chiave della Digital Transformation
digital transformation

Le Figure Chiave della Digital Transformation

Nonostante la definizione di Digital Transformation rimandi subito alla tecnologia, sono alcune figure chiave a...
La tecnologia migliora la qualità della vita?
future human technology society

La tecnologia migliora la qualità della vita?

La tecnologia migliora la qualità della vita? Esiste una correlazione tra felicità e tecnologia? Se sì, perché le...
Le 10 Innovazioni Tecnologiche per il futuro del business secondo il MIT
future human technology society

Le 10 Innovazioni Tecnologiche per il futuro del business secondo il MIT

Quando si parla di futuro della tecnologia, sono possibili due approcci. Il primo è di guardare da lontano, come fanno...

Hai apprezzato l'articolo?

Contattaci per capire cosa possiamo fare per la vostra azienda.