Ormai l’intelligenza artificiale sta prendendo sempre più piede nella nostra vita: dalle decisioni della nostra banca sul se concederci un mutuo, all’ordine dei post che ci appaiono sui social media, dall’assegnazione degli ordini di cibo su Deliveroo alla disponibilità delle corse su Uber, dai banner pubblicitari su Google all’ordine di chiamata per i vaccini, dalla determinazione delle cure per il primo soccorso in caso di emergenza alla valutazione delle prestazioni lavorative di operai in fabbrica.
Tutto è automatizzato, personalizzato e, perlopiù, oscuro e poco comprensibile. L’incubo fantascientifico dello scorso secolo sembra ormai sempre più una realtà che una serie su Netflix: le macchine decidono per noi. A volte c’è un controllo umano, a volte sono algoritmi rudimentali, ma la realtà è questa: gli algoritmi decidono, ci giudicano e molto spesso sbagliano, discriminano, manipolano o addirittura perpetuano pregiudizi sociali (sessismo, omofobia, razzismo).
Su molti fronti in Europa si sta cercando di rendere più comprensibili e corretti gli algoritmi che decidono delle nostre vite, soprattutto in ambiti in cui è l’intelligenza artificiale a scandire turni e compiti di lavoratori senza garanzie (la cosiddetta gig economy, dalle piattaforme per il cibo a domicilio ai sistemi taxi come Uber).
La situazione in Europa
In alcuni Stati, come la Spagna, è il Parlamento che attraverso nuove leggi cerca di imporre trasparenza e correttezza a questi algoritmi. In altri, come la Francia, quelle previsioni legislative esistono già da qualche anno, ma contestualizzarle in questi nuovi ambiti a rischio è la vera sfida. In altri Stati, come l’Italia, infine, pur non essendoci norme nazionali specifiche, sono i tribunali a farsi sentire.
Andiamo con ordine. Il Regolamento Ue sulla protezione dei dati, il Gdpr, prevede già l’obbligo per le imprese che usano algoritmi con un impatto sui soggetti (consumatori, lavoratori) di fornire “informazioni significative sulla logica utilizzata, nonché l'importanza e le conseguenze” di tale algoritmo. Inoltre, i soggetti hanno sempre diritto a contestare le decisioni dell’algoritmo e "ottenere una decisione umanizzata”. Anche se questi obblighi sono direttamente applicabili in ogni Paese Ue dal 2018, molti Stati hanno ampliato o specificato meglio queste previsioni.
Spagna, Francia e... Italia
La recente legge spagnola sulla gig economy, la cosiddetta ley rider, sembra andare in questa direzione: prevede che i rappresentanti sindacali vengano informati dalle aziende in merito a “parametri, regole e istruzioni” alla base di eventuali sistemi di intelligenza artificiale che possono influire sulle condizioni di lavoro, sulla selezione del personale o sulla valutazione dei lavoratori.
In realtà, anche se con meno enfasi politica e mediatica, già nel 2018 il Parlamento francese aveva imposto alle imprese che usano sistemi di IA di comunicare ai soggetti le regole che definiscono l’algoritmo e “le principali caratteristiche della sua implementazione”, fatti salvi i segreti commerciali. C’è di più: se l’intelligenza artificiale è usata da uffici pubblici (enti locali, ministeri e così via), c’è l’obbligo di spiegare l’algoritmo in modo comprensibile con un linguaggio facile ma dettagliato per tutti i soggetti interessati.
E in Italia? Qui le regole applicabili sono quelle generali del Gdpr sopra descritte (obbligo di fornire informazioni sull’algoritmo e diritto a contestarne le decisioni): il codice privacy italiano non aggiunge nulla di specifico. Tuttavia, è da qualche mese che sia tribunali sia garante della Privacy stanno controllando in maniera più severa il rispetto di quelle norme. Due casi sono emblematici. Il tribunale di Bologna nel dicembre 2020 ha condannato Deliveroo perché l’algoritmo utilizzato parrebbe discriminatorio: penalizzava i rider che si assentavano dal lavoro per sciopero o motivi di salute. A luglio 2021, poi, il garante Privacy ha sanzionato un’altra azienda di food delivery, Glovo, proprio perché mancavano misure che garantissero che l’algoritmo fosse trasparente, comprensibile, accurato e non discriminatorio. Sembrano risuonare proprio le parole della nuova legge spagnola o della legge francese.
Ma come si spiega un algoritmo?
Tuttavia, la domanda che sempre più imprese si stanno ponendo è: cosa bisogna spiegare dell’algoritmo? Cosa vuol dire “istruzioni”, “funzionamento”, “parametri”, “logica” alla base dei sistemi AI?
Da un lato le aziende si interrogano (e molte mi hanno interrogato negli ultimi anni) su come rispettare la legge senza svelare troppo (o comunque più del dovuto) dell’algoritmo. Dall’altro lato consumatori, lavoratori e associazioni per la tutela della privacy si pongono la domanda speculare: come possiamo assicurarci che le imprese non siano troppo evasive sugli algoritmi che decidono per noi? Cosa dobbiamo sapere per capire il funzionamento di un algoritmo che giudica il nostro lavoro, decide dei nostri turni e del nostro mutuo, regola la nostra esposizione alle pubblicità su internet?
Le leggi sopradescritte restano generiche sul punto: manca un elenco di informazioni chiare da fornire sull’algoritmo, mancano esempi o linee guida persino nelle leggi più recenti e specifiche sul punto (come quella spagnola). Gli studiosi, dal canto loro, sono anni che si scontrano su questo tema senza raggiungere un consenso pieno. Ciò che però può essere d’aiuto sono le linee guida dello European Data Protection Board (Edpb): “Invece di fornire una complessa spiegazione matematica su come funzionano gli algoritmi, il responsabile del trattamento dovrebbe considerare di utilizzare modi chiari e completi per fornire informazioni all'interessato”, per esempio i dettagli minimi da fornire sull’algoritmo devono includere:
- “le categorie di dati personali che sono state utilizzate dall’algoritmo” (come età, sesso, stato di salute, opinioni politiche, dati finanziari, dati sessuali e così via, del lavoratore);
- “perché queste categorie di dati sono considerate pertinenti” (cioè perché per decidere dei turni di un lavoratore di food delivery serve saperne l’età o il sesso?);
- “come viene valutato ogni soggetto dall’algoritmo e perché ciò è rilevante” (cioè, l’algoritmo dà una valutazione da 0 a 10 per ogni lavoratore in base alla sua efficienza e alle sue prestazioni? E perché questo tipo di valutazione è necessario?)
- Che effetti possono esserci sul lavoratore (a cosa può portare una valutazione negativa?)
Anche se questo elenco può risultare piuttosto riduttivo, la direzione è questa: giustificare i dati usati dall’algoritmo e le sue decisioni, spiegandone le conseguenze per lavoratori e utenti.
Ma non è tutto: appena lo scorso aprile, la Commissione europea ha proposto un nuovo Regolamento sull’intelligenza artificiale (qui un commento in francese, in inglese e in italiano). Tra le tante novità, esso propone obblighi in materia di comprensibilità e contestabilità umana dei sistemi di intelligenza artificiale sin dalle prima fasi di progettazione dell’algoritmo. Per ora è solo una proposta, ma questo dibattito rimarrà tanto irrisolto quanto urgente nei prossimi anni: dobbiamo trovare strumenti chiari e univoci per capire e sorvegliare gli algoritmi almeno quanto questi algoritmi hanno strumenti per capire e sorvegliare noi.