Discriminazione algoritmica

Di fronte al diffondersi dell’uso dei sistemi di automazione delle decisioni in ambito di selezione del personale, di concessione delle agevolazioni fiscali, di sistemi giudiziari è semp

Di fronte al diffondersi dell’uso dei sistemi di automazione delle decisioni in ambito di selezione del personale, di concessione delle agevolazioni fiscali, di sistemi giudiziari è sempre più necessario domandarsi se anche l’Intelligenza Artificiale possa essere influenzata dalle possibili inclinazioni discriminatorie dei suoi programmatori (o addestratori). Intervista alla ricercatrice di diritto privato comparato e titolare del corso in technology and law alla LIUC – Università Cattaneo, Elena Falletti 

‘‘L’Intelligenza Artificiale è una creazione umana” e come tale “è il nostro specchio e ci riflette con i nostri pregi e i nostri difetti”. Elena Falletti è ricercatrice di diritto privato comparato e titolare del corso in technology and law alla LIUC – Università Cattaneo. Nel 2022 ha pubblicato il libro “Discriminazione algoritmica”, titolo quanto mai attuale in uno scenario complesso in cui i sistemi di chatbot sono sempre più utilizzati da amministrazioni pubbliche e imprese private per prendere decisioni sul futuro delle persone. Senza, però, risolvere ma, anzi, rischiando in certi casi di amplificare atavici pregiudizi, non ultimi quelli razziali o sessisti. 

La “rivoluzione digitale” che stiamo costruendo sembra esasperare e mettere in drammatica evidenza problemi antichi come le discriminazioni, il razzismo, lo sfruttamento. Quali sono le cause di questa situazione?
Grazie a cinema e letteratura siamo abituati a pensare all’Intelligenza Artificiale (con le iniziali maiuscole) come ad una entità autonoma, che interagisce con noi come se fosse una creatura indipendente, ma non è così. L’Intelligenza Artificiale (con le iniziali minuscole) è una creazione umana e riflette le convinzioni, gli interessi e gli scopi del suo programmatore/produttore. Il medesimo concetto di “Intelligenza Artificiale” è fuorviante. Ormai è stato assunto a definizione comune sulla quale tutti ci intendiamo riferendoci a uno specifico ambito, ma nel concreto si tratta di una serie di decisioni automatizzate poste in essere da sistemi di calcolo che rispondono a specifiche regole di programmazione. Attraverso questi calcoli i programmatori inseriscono enormi quantità di dati inerenti la quotidianità che ci circonda. Tali dati, raccolti e trattati in banche dati (i cosiddetti “big data”), riguardano ciascuno di noi: per esempio i dati medici, biometrici, finanziari, fiscali lavorativi, scolastici. In termini molto semplici si può dire che l’Intelligenza Artificiale è il nostro specchio e come tale ci riflette con i nostri pregi e difetti.

In che modo gli algoritmi decisionali o l’Intelligenza Artificiale possono avere a che fare con i nostri diritti personali? Vede delle differenze importanti tra sistemi programmati, il cui comportamento deriva appunto dall’implementazione di algoritmi e sistemi addestrati?
Tutti i sistemi sono programmati. Poi ci sono quelli che seguono un percorso logico più lineare (i cosiddetti “sistemi esperti”, come un programma di calcolo relativo al risarcimento del danno) oppure attraverso il machine learning, che non è prevedibile nei suoi risultati perché imita il modello sinaptico presente nel cervello degli esseri viventi. Ciò posto, i software algoritmici trattano i dati a loro disposizione seguendo le istruzioni stabilite dai programmatori, quindi è possibile che interferiscano con i nostri diritti elaborando risultati discriminatori. Abbiamo conosciuto esempi eclatanti, come in ambito fiscale, relativo a un noto caso olandese in cui il sistema discriminava le persone di origine straniera perché faceva riferimento al codice di avviamento postale e quindi alla zona periferica della città in cui abitavano. Oppure un altro caso altrettanto noto relativo alla concessione della libertà vigilata da parte del sistema giudiziario dello Stato del Wisconsin in cui il sistema discriminava sotto il profilo razziale i richiedenti negando principalmente alle persone di colore il beneficio previsto dalla legge. Come l’algoritmo riusciva a capire che il richiedente fosse una persona di colore? Per via dell’individuazione delle caratteristiche ricorrenti rilevate nel database.

Dal suo punto di vista, quali sono i principali elementi di novità introdotti dai sistemi di Intelligenza Artificiale generativa?
Voglio evidenziare innanzitutto che sistemi di Intelligenza Artificiale generativa, gli LLM (Large Language Model) sono macchine che, per quanto raffinate, imitano il ragionamento umano con modelli di calcolo probabilistico. Pertanto, il loro risultato non va mai considerato corretto o sbagliato perché è dato dalla combinazione tra le parole maggiormente utilizzate negli archivi di training sulle quali sono state allenate. Gli elementi di novità sono principalmente due. Il primo, quello più stupefacente e importante, è relativo al fatto che queste macchine restituiscono alle nostre domande delle frasi di senso apparentemente compiuto espresse con un tono autorevole che ci induce a prenderle sul serio. Secondo, l’aspetto più rischioso deriva dal fatto che gli utilizzatori credono ai risultati prodotti dalla macchina, senza porsi domande. è vero che gli LLM rappresentano un passo importante nell’interazione uomo-macchina, ma è altrettanto vero che questa fiducia ci indebolisce in due modi diversi: da un lato tendiamo a delegare a queste macchine sempre più cose, per esempio l’esposizione scritta di concetti complicati o la soluzione di un problema concreto; dall’altro lato ci mettiamo nelle mani dei produttori di questi software che sono stranieri, quindi tendono a eludere le nostre regole di protezione della dignità umana, dei consumatori, ecc. e rispondono a logiche di protezione della proprietà intellettuale, ma solo a loro vantaggio, perché non hanno avuto scrupoli di usare i materiali di altri per allenare i loro software. Per questo negli Stati Uniti sono pendenti importanti cause promosse dagli autori dei materiali su cui gli LLM hanno effettuato il loro training.

Quali vantaggi e quali rischi nell’implementazione di sistemi per l’automazione delle decisioni, ad esempio nel campo della sicurezza sul lavoro o del recruiting?
Un indubbio vantaggio è che i sistemi decisori automatizzati rendono più efficienti le decisioni seriali, secondo cui casi simili con parametri simili possono essere decisi in modo omogeneo più velocemente e risparmiando sui costi. Tuttavia, occorre porre estrema attenzione nella programmazione di questi sistemi eliminando dall’origine del processo, cioè già nella raccolta dei dati, gli elementi informativi che possono produrre discriminazioni dirette e indirette proibite dalla legge, come per esempio dati relativi alla salute, al sesso, all’età e così via. Questa è la bussola da tenere ben salda in mano nel momento in cui si decide di utilizzare siffatti programmi decisori automatizzati.

Il ruolo del trattamento dei dati personali e quindi della privacy sembra centrale nella tutela dei diritti fondamentali nella società digitale. In che modo possiamo tutelarci?
Il sistema di raccolta dei dati è così pervasivo e ampio che è estremamente difficile tirarsene fuori. Si pensi per esempio all’informatizzazione sanitaria. Tuttavia, ciascuno di noi, per la sua semplice autotutela, può difendersi negando il consenso al trattamento dei dati quando naviga online (mi rendo conto che è fastidioso perché poi il pop up con la richiesta di consenso alla cessione e trattamento dei dati personali sarà una costante della navigazione online) oppure essendo molto più discreti nell’uso dei social network. È un paradosso della nostra società che vive esibendosi sui social, ma è una delle poche armi a nostra disposizione per difenderci.

Che spazi di intervento hanno governi ed istituzioni pubbliche in un contesto internazionale così disomogeneo come quello attuale? Quali sono gli scenari normativi in Usa ed in Ue e come impedire la migrazione opportunistica di dati ed applicazioni in Paesi de-regolamentati?
La domanda coglie il problema: i principali produttori di software algoritmici sono americani, noi viviamo in Europa. Dal nostro canto abbiamo l’esperienza positiva del Regolamento europeo di tutela della privacy che ha implementato una disciplina diventata modello internazionale per la protezione dei dati personali. L’Unione Europea ha intenzione di ripetersi con l’implementazione dell’Artificial Intelligence Act recentemente finalizzato e in corso di pubblicazione. Dobbiamo essere consapevoli che rappresentiamo un mercato di 450 milioni di persone assai appetibile per le Big Tech Companies statunitensi e comportarci di conseguenza. 

 

L’immagine di questo articolo è stata creata da Lisa Aramini Frei con Midjourney.

Articoli correlati