La necessità di equilibrio nel riconoscimento facciale

3 minuti di lettura

Nel mondo in cui viviamo siamo circondati da sensori in grado di rilevare i nostri movimenti, la nostra posizione geografica, alcuni nostri parametri vitali e da queste informazioni ricavare dati relativi ai nostri comportamenti, alla nostra propensione all’acquisto di certi prodotti, al nostro stato di salute.

In alcuni casi siamo noi stessi a volere che questi dati vengano rilevati, perché, per esempio, ci serve conoscere la nostra posizione geografica per farla usare a qualche app sul nostro smartphone, oppure ci è utile che un dispositivo indossabile tenga sotto controllo il nostro battito cardiaco durante una sessione di allenamento.

In altri casi, invece, siamo portati a cedere alcuni nostri dati in cambio dell’accesso a servizi che percepiamo come gratuiti, ma che in realtà utilizzano quei dati per creare un nostro profilo commerciale e indirizzarci pubblicità a noi più adatta e quindi con una maggiore possibilità che si converta in futuro in un acquisto del prodotto o del servizio che viene pubblicizzato. È il caso dei social network e di molti servizi che non paghiamo direttamente con la nostra carta di credito, ma che in realtà nutriamo consentendo loro di tracciare e analizzare la nostra navigazione sulla rete per scopi commerciali.

Esiste però una terza via che è totalmente fuori dal nostro controllo: è quella situazione che potremmo subire quando alcuni dispositivi gestiti da altri, tendenzialmente le telecamere, totalmente a nostra insaputa cerchino di riconoscerci, di analizzare il nostro comportamento e di trarre conclusioni sulle nostre azioni o sulle nostre potenziali intenzioni associando tutte queste informazioni alle immagini del nostro volto, e quindi potenzialmente alla nostra identità, e memorizzando il tutto all’interno di un profilo comportamentale ben più esteso e complesso di quello che solitamente concediamo ai social network.

Si tratta di un utilizzo disinvolto di algoritmi di intelligenza artificiale e machine learning che solitamente vengono utilizzati come strumento di autenticazione biometrica, per esempio per sbloccare il nostro smartphone, per consentirci di entrare in zone ad accesso controllato o per autorizzare un pagamento online. In questi casi ci troviamo di fronte a utilizzi perfettamente leciti e, soprattutto, nella totale disponibilità dell’utente. Quando questo avviene, invece, a sua insaputa o senza che egli sia completamente consapevole di quel che accade, le cose possono essere molto più complesse e, in certi contesti, anche molto pericolose.

Per comprendere meglio la differenza proviamo a pensare alle telecamere di sicurezza usate in un centro commerciale. Se l’obiettivo è rilevare, anche in modo automatico, alcuni comportamenti sospetti e segnalarli al personale della sicurezza perché vada a verificare che tutto sia in regola, allora non ci sono particolari problemi perché non c’è alcuna identificazione personale. Se invece si memorizzano in una base dati tutti i volti di chi in precedenza ha tentato di rubare in quel centro commerciale e si tenta di riconoscere quel volto tra le persone in ingresso in modo da non consentirne l’accesso, allora la cosa può essere molto più spinosa. In primo luogo perché gli algoritmi non sono perfetti e potrebbero identificare come “ladro” una persona che semplicemente assomigli ad un qualunque volto presente nella base di conoscenza, oppure potrebbero impedire l’accesso a chi ha effettivamente commesso un furto in passato, ma che ha pagato il suo debito con la giustizia.

Ampliando ulteriormente lo scenario proviamo a pensare a questi strumenti quando fossero utilizzati per il controllo della popolazione. Con queste tecnologie un qualunque governo potrebbe decidere di analizzare i filmati delle telecamere di sicurezza di una città, arrivando a conoscere nei dettagli i comportamenti e i movimenti di buona parte della popolazione e avendo a disposizione in tempo reale la lista di tutti i partecipanti a una certa manifestazione di protesta o la frequentazione di persone con un certo orientamento politico. Andando oltre si potrebbero realizzare (e in alcuni casi è stato fatto) algoritmi in grado di riconoscere individui appartenenti a determinate etnie o minoranze, con l’obiettivo di effettuare controlli più severi o impedirne l’accesso a determinati luoghi, il tutto su base etnica.

Si tratta, tuttavia, di tecnologie che possono avere utilizzi nobili e utilissimi per la collettività, si pensi per esempio alla possibilità di individuare automaticamente le persone scomparse o di aiutare i medici a identificare precocemente alcune malattie rare. Non vanno quindi demonizzate per il solo fatto di avere le potenzialità di essere usate in modo dannoso, perché in caso contrario lo stesso ragionamento potrebbe essere fatto per qualunque altra tecnologia, a cominciare dal martello che abbiamo nella cassetta degli attrezzi.

Quello che serve è la consapevolezza, da parte del legislatore, delle potenzialità e dei rischi insiti nell’utilizzo di queste tecnologie e un equilibrio nel decidere quali campi di applicazione siano eticamente accettabili e quali, al contrario, siano da considerare non ammissibili.

Come spesso accade il problema non è tecnologico, ma legato all’impatto che una certa tecnologia può generare sul mondo che ci circonda.