Lavagne: i pregiudizi degli algoritmi
5 9 2019
Lavagne: i pregiudizi degli algoritmi

Gli algoritmi sono meno imparziali di quel che sembra. Mattia Galeotti racconta storie di discriminazione tecnologica

Nello spazio totalmente analogico delle lavagne – tradizionalmente dedicato alla divulgazione scientifica en plein air – Festivaletteratura ospita quest'anno una serie di lezioni dedicate agli algoritmi e al machine learning: sono esplorati i principi di base, le enormi potenzialità e i sorprendenti limiti, nonché le dirompenti ricadute sulla nostra quotidianità. Nell'ambito delle scienze applicate si possono invece collocare le lavagne dedicate alla tattica sportiva e alle più importanti innovazioni di concezione di gioco che hanno rivoluzionato il tennis, il calcio, il basket e il rugby.


Gli algoritmi suscitano spesso delle reazioni ambivalenti: da un lato possono incuriosire e forse anche impensierire perché i loro meccanismi interni sono sconosciuti al grande pubblico. Dall'altro lato però ispirano anche una certa fiducia, che deriva dall'approvazione di cui godono generalmente le scienze. Si è infatti abituati a pensare alla scienza come qualcosa di esatto, chiaro, intrinsecamente imparziale. Tuttavia la scienza non è mai meramente descrittiva poiché quando dei dati vengono registrati «stiamo sempre agendo su di loro». Di conseguenza neppure gli algoritmi sono esenti dall'effettuare un certo tipo di discriminazione e cercare di eliminare questa variabile può rivelarsi molto complicato.

Mattia Galeotti fornisce alcuni esempi in cui gli algoritmi utilizzati erano risultati responsabili di perpetuare e forse anche aggravare situazioni discriminatorie. Per esempio Amazon ha dovuto sistemare una deviazione dell'algoritmo che selezionava il personale, perché favoriva nettamente gli uomini alle donne. In un altro caso, la polizia degli Stati Uniti nel 2016 ha dovuto ammettere che il loro sistema di prevenzione della criminalità COMPASS – che stabiliva le probabilità di recidività e decideva gli importi da pagare per una cauzione – era profondamente discriminatorio nei confronti dei gruppi non-bianchi.

Come si può affrontare allora questo problema? Galeotti suggerisce diverse alternative: o si ignora completamente la presenza del "fattore sensibile" oppure lo si include in maniera consapevole all'interno dell'algoritmo. La prima proposta non risolverebbe completamente il problema, dato che spesso i fattori sono strettamente collegati fra loro e la discriminazione dunque permarrebbe in maniera implicita. Se al contrario il fattore sensibile fosse esplicitato, rimarrebbe comunque molto difficile evitare che influenzi in qualche maniera il risultato finale. Galeotti mostra tramite equazioni matematiche che cercando di diminuire certi valori, come quello dei falsi positivi per esempio, ci si ritrova nella situazione paradossale in cui l'indicatore della discriminazione aumenta e viceversa. La matematica può quindi condurre ad una serie di vicoli ciechi la cui soluzione viene trovata nelle "active policies", vale a dire interventi che sono effettuati a un livello istituzionale, come per esempio un governo o la dirigenza di un'azienda.

Tocca quindi agli esseri umani il compito di risanare le contraddizioni perpetuate dalle macchine: tali interventi dovranno essere particolari: a differenza di un algoritmo universalmente applicabile le vicende umane sono singole e uniche.


Per chi vuole approfondire il percorso, Festivaletteratura propone:

Lavagna ore 19:00 mercoledì 4 “La rivoluzione di Jonah Lomu” - Lavagna ore 18:00 giovedì 5 “La rivoluzione del tiro da tre” - Lavagna ore 19:15 giovedì 5 “Anche gli algoritmi hanno pregiudizi?” - Lavagna ore 11:00 venerdì 6 “Algoritmi, machine learning e altri demoni” - Lavagna ore 19:00 venerdì 6 “Breve storia del pressing” - Lavagna ore 10:00 sabato 7 “La nascita del tennista universale” - Lavagna ore 18:00 sabato 7 “Il ruolo del tempo nell'apprendimento umano e delle macchine” - Lavagna ore 10:00 domenica 8 “Intelligenza artificiale umana”.

Festivaletteratura