In evidenza
Sezioni
Magazine
Annunci
Quotidiani GNN
Comuni

Così l’intelligenza artificiale ci manipola grazie alle nostre debolezze

Così l’intelligenza artificiale ci manipola grazie alle nostre debolezze
(afp)
Studio degli scienziati australiani su Pnas, che svela come gli algoritmi sfruttano le  nostre scelte e i nostri limiti cognitivi a proprio vantaggio. E così diventano un’arma pericolosa nelle mani della politica o delle aziende
4 minuti di lettura

L’intelligenza artificiale può manipolare le nostre scelte, sfruttando le nostre abitudini, aspettative, pregiudizi. Questo timore trova ora conferma in uno studio di Data61, braccio dell'agenzia scientifica nazionale australiana (Csiro), pubblicato a febbraio.

I ricercatori hanno ideato un metodo sistematico con cui gli algoritmi possono trovare i punti deboli del nostro modo di ragionare e sfruttarli per influenzare le scelte. Hanno poi svolto test per dimostrare che il metodo funziona. Dallo studio risulta come gli algoritmi riescano molto bene a capire come manipolarci, spingendoci verso le scelte desiderate da chi ha progettato quegli stessi algoritmi. Scelte quindi che, in questo caso, ci illudiamo siano davvero “libere”.

Lo studio è rilevante perché si inserisce in un dibattito internazionale che sta evidenziando, con crescente preoccupazione, il potere degli algoritmi (e delle relative big tech) per influenzare scelte politiche, commerciali; ma anche giudiziarie, sanitarie e di welfare (laddove l’intelligenza artificiale entra anche in questi sistemi). Un timore che trova riscontro, tra l’altro, in recenti proposte e carte etiche delle istituzioni europee.

Lo studio e i test svolti

Per testare il loro modello, i ricercatori hanno condotto tre esperimenti in cui i partecipanti hanno giocato contro un computer. Il primo esperimento prevedeva che cliccassero su caselle colorate rosse o blu per vincere una moneta falsa. Man mano l’intelligenza artificiale (IA) imparava i modelli di scelta dei partecipanti li guidava verso una scelta specifica. L'IA ha avuto successo circa il 70% delle volte.

Nel secondo esperimento, ai partecipanti è stato chiesto di guardare uno schermo e premere un pulsante quando appariva un particolare simbolo (ad esempio un triangolo arancione) e non premerlo quando c’era un altro (ad esempio un cerchio blu). Scopo dell’AI era organizzare la sequenza dei simboli in modo che i partecipanti facessero più errori. C’è riuscita: ha ottenuto un aumento di quasi il 25%.

Il terzo esperimento consisteva in diversi round in cui un partecipante fingeva di essere un investitore che dava soldi a un fiduciario, impersonato dal computer. L’AI avrebbe poi restituito una quantità di denaro al partecipante, che avrebbe poi deciso quanto investire nel round successivo. Questo gioco è stato giocato in due diverse modalità: in una l'AI cercava di massimizzare la quantità di denaro che si ritrovava, e nell'altra mirava a una distribuzione equa del denaro tra se stessa e l'investitore umano. L'IA ha avuto molto successo in ogni modalità, riuscendo quindi a manipolare il gioco (e i giocatori) a proprio vantaggio.

Il risultato finale è stato che la macchina ha imparato a guidare i partecipanti verso azioni particolari. Nel dettaglio i ricercatori hanno usato un sistema chiamato rete neurale ricorrente e apprendimento profondo di rinforzo. Un sistema simile a quello con cui i ricercatori, ad esempio, addestrano un robot a muoversi in una fabbrica e compiere particolari azioni con tentativi ed errori. Ma in questo caso l’apprendimento della macchina, basato sulle risposte dei partecipanti, è servito per identificare le vulnerabilità nel loro processo decisionale e quindi sfruttarle per direzionarle: un utilizzo “malizioso” dell’AI, il cui potenziale è usato a vantaggio non degli utenti ma per ingannarli.

Le implicazioni della ricerca

Le implicazioni sociali sono evidenziate proprio all’inizio dello studio: “Pubblicitari, truffatori, politici e furfanti di tutte le varietà tutte le varietà hanno cercato a lungo di manipolare il nostro processo decisionale a loro favore, contro i nostri interessi”; si legge. E il modello dei ricercatori australiani permette appunto di fare tutto questo con efficacia maggiore, automatizzata.

Il dibattito sulla possibilità di manipolare le nostre scelte, mettendo addirittura in crisi il “libero arbitrio”, è accelerato dagli anni 80 con gli esperimenti di neuroscienziati e psicologi cognitivi. Noti intellettuali come Sam Harris e lo storico Yuval Noah Harari di recente hanno esteso queste conclusioni all’uso degli algoritmi, sospettandoli di poter mettere la pietra tombale su ciò che chiamiamo libero arbitrio. L’idea in fondo è la stessa da cui prende le mosse lo studio australiano. Gli studi di psicologi cognitivi dimostrano da decenni che ci sono falle nel nostro modo di ragionare, che ci rendono manipolabili e influenzabili nelle scelte (pioniere l’esperimento sulla dissonanza cognitiva pubblicato nel 1959 dal grande psicologo Leon Festinger).

Ebbene, gli algoritmi consentono di individuare e sfruttare molto meglio e in modo automatico queste falle. Ci riescono grazie all’enorme potenza di calcolo e alla capacità di apprendimento (machine learning) come mostrato dagli esperimenti australiani; ma anche grazie alla grande conoscenza di dati sulle persone, accumulati dalle big tech.

La manipolazione

Un punto evidenziato da Harari (tra gli altri), ad esempio nelle conversazioni 2019 alla Stanford University, dove ha parlato di “organizzazioni che possono creare algoritmi che mi capiscono meglio di me stesso e quindi possono manipolarmi, potenziarmi o sostituirmi”; e ha evidenziato come quest’evoluzione tecnologica metta in crisi le nozioni di libero arbitrio e agency umana.

Le ricadute sono enormi perché è sull’assunto di libere scelte che si fondano le democrazie e i mercati, nota Harari. Tra i primi a parlare di questi rischi, si segnalano le ricercatrici Shoshana Zuboff (che ha definito le big tech, con l’IA, “capitalismo della sorveglianza”) e Cathy O’Neil (che ha chiamato gli algoritmi “Armi di distruzione matematica”, nel 2016).

La manipolazione algoritmica si può esprimere in varie forme, anche come decisioni automatizzate che, con la promessa di maggiore efficienza, precisione o produttività, influenzano le decisioni umane. È il caso di algoritmi usati da giudici, da poliziotti o da sistemi di welfare per decidere chi condannare, arrestare o a chi dare sussidi. Associazioni come la tedesca AlgorithmWatch da tempo chiedono che la politica sottoponga a scrutinio questi sistemi, per evitare derive pericolose.

La stessa Data61 è consapevole dei rischi e infatti ha pubblicato una carta etica per indirizzare l’AI verso usi positivi e non “manipolativi”; un percorso seguito anche dalle istituzioni europee (Commissione e Parlamento) con analoghi documenti. Ad aprile dovrebbe arrivare la prima strategia europea sull’IA (in forma di proposta della Commissione europea), con l’obiettivo di indirizzare queste tecnologie a vantaggio di interessi collettivi.

Ma una prima legge pensata per orientare gli algoritmi a un uso positivo ce l’abbiamo già ed è il Gdpr, sulla privacy, recepita in Italia nel 2018. Impone alle aziende misure che limitano la possibilità di usare l’intelligenza artificiale per prendere decisioni automatizzate lesive di diritti fondamentali.

Il Gdpr è un punto di partenza importante per ricondurre l’intelligenza artificiale a finalità umane (tanto che ha ispirato numerose normative internazionali, Usa, Cina, Brasile, India), come riflette – tra gli altri – Franco Pizzetti (ex Garante privacy e professore di diritto costituzionale all’università di Torino) nel recente Protezione dei dati personali in Italia tra GDPR e codice novellato (Giappichelli, gennaio 2021).

È d’accordo Guido Scorza, membro del collegio del Garante Privacy, che commentando lo studio australiano dice a Repubblica: “La profilazione praticata specie online in maniera diffusa crea già oggi importanti asimmetrie informative, intende convincere il pubblico a compiere una certa scelta di consumo o, anche, politica e il pubblico e consente al primo di indirizzare al secondo contenuti capaci di fare breccia sulle debolezze o fragilità di ciascuno. Non sorprende, quindi – continua Scorza, che algoritmi appositamente addestrati possano fare di più e riuscire a prevedere il risultato dei nostri processi decisionali o, addirittura, a modificarli".

“È d’altra parte”, aggiunge, “una delle ragioni per le quali la disciplina europea sulla privacy già oggi tratta con particolare cautela tanto la profilazione che i trattamenti di dati personali strumentali all’automazione di scelte capaci di produrre effetti giuridico-economici rilevanti sugli interessati. Non c’è dubbio, tuttavia, che scongiurare il rischio della frantumazione della libertà negoziale e, più in generale, della libertà decisionale delle persone debba essere uno degli obiettivi principali di ogni futura eventuale forma di regolamentazione della materia”.