La lezione di Kabul sulla privacy

(reuters)
3 minuti di lettura

Il ritorno al potere dei talebani a Kabul ha suscitato accesi dibattiti, in materia di politica estera, politica interna Usa, conflitto tra autodeterminazione dei popoli e rispetto dei diritti umani e così via. Un tema è per ora rimasto sullo sfondo, nonostante la sua profonda rilevanza: la riconquista talebana di Kabul offre urgenti spunti di riflessione in tema di privacy e tecnologia.

Un primo spunto ci è fornito dalla folla di persone che si è accalcata verso l’aeroporto di Kabul pur di fuggire. Fonti giornalistiche rivelano che, in molti casi, i posti di blocco talebani sulle vie che conducevano all’aeroporto spesso chiedevano informazioni e documenti ai cittadini in cerca di fuga, con l’illusione di farli scappare, per poi rispedirli indietro. Tali controlli pare siano serviti in realtà ad alimentare liste di dati personali di possibili “nemici” dello Stato talebano, poiché soggetti in fuga dal nuovo regime.

Nei giorni scorsi, The Intercept ha rivelato che nelle ore più frenetiche prima della conquista della capitale afghana, i talebani sono riusciti ad appropriarsi della tecnologia Hiide usata dalle forze Usa in Afghanistan per controllare potenziali terroristi e minacce alla sicurezza e trattare i dati di collaboratori (afghani e non) dell’establishment americano in loco. Tali sistemi prevedono, tra l’altro, grandi potenzialità di riconoscimento biometrico dei soggetti. Fonti militari Usa hanno rivelato che nonostante i talebani non abbiano le capacità di utilizzare queste tecnologie, l’intelligence pakistana (Isi) che collabora con i talebani avrebbe tutte le competenze per farlo. Un membro di Human Rights First, una organizzazione per i diritti umani impegnata anche sulla questione afghana, ha dichiarato: “Non credo che qualcuno abbia mai pensato alla privacy dei dati o a cosa fare nel caso in cui il sistema (Hiide) cadesse nelle mani sbagliate”.

Questa notizia ha due conseguenze rilevanti: una sul breve termine e una sul lungo termine. Nel breve termine, tutte le informazioni dei cittadini afghani che hanno collaborato con gli Usa possono essere rilevate e utilizzate per creare liste di proscrizione di nemici del regime. Tali possibili liste possono poi essere combinate con le altre liste già in possesso del regime (e con quelle già menzionate di cittadini in fuga dal nuovo Stato talebano) per procedere ad arresti, esecuzioni e repressione in generale.

Nel medio-lungo termine, questa tecnologia potrebbe essere la base per un riconoscimento biometrico della popolazione o, peggio, per pratiche come il riconoscimento delle emozioni dei cittadini, la profilazione e la classificazione sistematica in base a caratteristiche sensibili (età, orientamento sessuale, stato di salute e così via) di tutti i soggetti che si trovino a passare in luoghi pubblici. Queste tecnologie sono già una realtà in molte parti del mondo: in diversi Paesi sono state utilizzate per la prevenzione e il contrasto della criminalità o anche per tracciare minoranze etniche, come è avvenuto in Cina.

In un futuro non troppo lontano, insomma, queste tecnologie potrebbero essere utilizzate perfino per sorvegliare la condotta (e le emozioni) delle donne afghane quando camminano per strada o si trovano in altri luoghi pubblici: controllare quando e se approcciano altri uomini, se e come indossano il velo, e così via. Nonostante diverse ricerche in ambito informatico abbiano rivelato che è difficile fare riconoscimento biometrico (quindi potenzialmente anche emozionale) di donne con il velo, ricerche più recenti stanno sviluppando tecnologie capaci di superare questi ostacoli. Alcuni ricercatori stanno, infatti, mettendo a punto sistemi sempre più raffinati che possono ben identificare e profilare informazioni biometriche anche di persone con il volto parzialmente coperto. La pandemia di Covid-19 è stata da stimolo per questi sviluppi tecnologici: il riconoscimento facciale di persone con la mascherina è stata una esigenza concreta e urgente per molti Paesi.

Dunque, che lezione trarne? Cosa ci insegnano questi possibili scenari? Innanzitutto, che, se non possiamo esportare i diritti umani, possiamo quanto meno evitare di esportare tecnologie che aiutino a violare sistematicamente i diritti fondamentali di donne (e cittadini in generale) di Paesi sotto dittatura.

Dato che ogni possibile innovazione tecnologica ha un rischio di uso deviato, occorre dunque stabilire subito quali siano le tecnologie di intelligenza artificiale che riteniamo vietate perché troppo pericolose per i diritti fondamentali (in Europa, ma come effetto riflesso anche nei Paesi che acquistano i nostri servizi IA). La proposta di Regolamento UE sull’IA prevede già una lista di tecnologie vietate perché a rischio altissimo. Tra queste, però, non c’è il riconoscimento emozionale e la categorizzazione della popolazione tramite caratteristiche sensibili. Già l’European Data Protection Board ha criticato queste lacune. Oggi ce lo ricorda anche Kabul: se non preveniamo qui e ora i rischi concreti dei sistemi di IA, avremo una responsabilità morale anche sulle popolazioni cui quei diritti fondamentali non sono neppure giuridicamente riconosciuti nel proprio Paese.