In evidenza
Sezioni
Magazine
Annunci
Quotidiani GNN
Comuni
Intervista

Come l'intelligenza artificiale può diventare un'arma contro il terrorismo

Come l'intelligenza artificiale può diventare un'arma contro il terrorismo
I primi esperimenti hanno dato esiti positivi ma la strada per il successo è lastricata di problemi tecnici e culturali. E il più grosso limite è l’atteggiamento umano
5 minuti di lettura

Può un’intelligenza artificiale (AI) prevedere un attacco terroristico? La risposta è sì, ma si tratta di un risultato il cui raggiungimento è in essere perché, gli studi e le elaborazioni, si basano quasi esclusivamente su dati e statistiche spazio-temporali, senza tenere conto di una terza dimensione di informazioni, in cui rientrano i dettagli comportamentali dei gruppi terroristici e gli eventi esterni che possono destarne la rabbia. L’Italia sta dando un contributo a queste AI, introducendo nuove dimensioni negli algoritmi a cui sono demandati i compiti previsionali. L’intero settore ha conosciuto un quinquennio di fermento, andato a scemare in corrispondenza delle ingerenze estere nelle presidenziali Usa del 2016 che hanno rivoluzionato la percezione dei rischi, spostando gli investimenti verso la lotta alle fake news.

Per capire a che punto è la ricerca e quali sono i problemi da risolvere, ci siamo avvalsi della collaborazione di Gian Maria Campedelli, ricercatore in Computational Criminology del dipartimento di Sociologia e Ricerca Sociale dell’Università di Trento nonché autore, insieme a Mihovil Bartulovic e Kathleen M. Carley (entrambi della Carnegie Mellon University, Pittsburgh, Pennsylvania), di una pubblicazione dal titolo Learning future terrorist targets through temporal meta-graphs ossia “Imparare i futuri obiettivi terroristici attraverso meta-grafi temporali” apparsa su Nature.

Come può un’AI prevenire il terrorismo?
“Ci sono fondamentalmente due ambiti in cui viene applicata l’intelligenza artificiale allo studio del terrorismo e alla previsione di eventi o di comportamenti terroristici, questi sono: l’analisi dei comportamenti online e l’analisi dei comportamenti e delle tendenze offline. Da un lato si lavora sui social media e sui dati Gps dei dispositivi internet dei singoli individui, dall’altro lato si lavora sugli attacchi veri e propri, due aree molto distinte. Gli studi che esaminano gli attacchi terroristici usano i dati forniti dal Global Terrorism Database (GTD), gestito dall’Università del Maryland ed è il più rappresentativo tra quelli aperti ai ricercatori, che include più di 200mila attacchi avvenuti dal 1970 a oggi” spiega Campedelli.

Quali sono le ipotesi su cui si basa il suo studio? E cosa ha in più di quelli precedenti?
“C’è da distinguere tra previsioni e i modelli che si occupano principalmente di classificazione degli eventi, che vengono usati per l’online, per esempio riconoscendo se un certo tipo di comportamento o materiale pubblicato comporta un rischio per la radicalizzazione o per la propaganda terroristica. Per quanto riguarda l’offline, rispetto ad altri simili, l’approccio utilizzato in questo studio cerca di rappresentare gli effetti terroristici non soltanto come interdipendenti nel tempo e nello spazio. Un attacco terroristico di oggi incrementa la possibilità di un attacco terroristico domani, si concentrano nel tempo perché sono parte di strategie di campagne che mirano a massimizzare i danni per il nemico.

L’idea del lavoro fatto è di andare oltre gli assunti spazio-temporali, rappresentando gli effetti terroristici anche tramite relazioni caratteristiche. Partendo da teorie che disegnano il comportamento terroristico come un comportamento strategico, l’ipotesi dello studio è che si potessero avere maggiori informazioni e maggiore accuratezza nell’identificare i futuri obiettivi terroristici attraverso modelli di rete, sfruttando non soltanto le connessioni temporali tra gli eventi ma anche le caratteristiche degli eventi stessi i quali, secondo la teoria che abbiamo sviluppato, sono parte di comportamenti terroristici. Se un gruppo terroristico vuole colpire un’ambasciata è probabile che vengano usate armi leggere, come fucili e pistole, e non esplosivi. A determinati target corrispondono determinati tipi di armi. Tattiche adottate, obiettivi e armi impiegate sono caratteristiche degli eventi utilizzate per cercare di prevedere quale obiettivo sarebbe stato a maggiore rischio nei due giorni seguenti l’elaborazione, basata su reti neurali Lstm (Long Short-Term Memory, ossia “memoria a lungo termine”, nda) che hanno avuto maggiore successo tra gli algoritmi testati. Abbiamo testato anche quanti input utilizzare per massimizzare l’accuratezza delle previsioni, così da capire quanta variabilità ci sia nei comportamenti dei gruppi terroristici in un Paese. Grazie a questo sappiamo che i comportamenti dei gruppi terroristici in Iraq variano molto spesso, quindi è inutile considerare input lontani nel passato mentre, in Afghanistan, le strategie e le tattiche dei talebani sono meno variabili, si possono quindi analizzare periodi più lunghi”.

È un approccio che funziona?
“Sembra funzionare con una discreta performance per quei Paesi che hanno un’alta frequenza di eventi terroristici. Quando esportiamo questo metodo in nazioni in cui gli attacchi terroristici sono molto meno prevalenti, questi algoritmi hanno meno successo. L’intenzione futura è quella di unire i dati del mondo online con quelli del mondo offline. Uno dei limiti di cui eravamo consci è che abbiamo utilizzato dati che semplicemente mappano o quantificano il comportamento terroristico, senza considerare informazioni che riguardano il mondo esterno e che influenzano questo comportamento. Così una risoluzione Nato o l’attacco di un esercito su una zona mediorientale possono scatenare eventi terroristici in una determinata area.

In passato ci sono stati precursori del monitoraggio online per comprendere le attività terroristiche offline, quindi analisi dei social media, dello scambio di informazioni online e telefonate possono dare informazioni sui comportamenti nel mondo reale”.

I problemi offline e online
“L’analisi dei comportamenti online ha avuto un forte sviluppo negli anni dal 2012 al 2016, poi i finanziamenti americani ed europei si sono spostati sul fronte della disinformazione, spinti dall’effetto delle ingerenze russe nelle elezioni presidenziali americane. L’analisi dei comportamenti terroristici offline è argomento che ha avuto il suo picco dopo gli attacchi dell’11 settembre 2001 e subito dopo gli attacchi di Madrid (2004, nda) e Londra (2005, nda). Poi l’attenzione è scemata. Quello che spesso accade è che lo studio e l’analisi di questi temi viene fatta da persone con un background informatico-matematico-statistico ma non in scienze sociali, in criminologia o scienze politiche, per questo è mancata la conoscenza del dominio che ha creato storture nei metodi computazionali e nelle intelligenze artificiali”.

“L’online ha soprattutto un problema di tipo filosofico-politico e persino legale – continua Campedelli – al di là del problema della privacy che va tenuto in considerazione. La particolare condizione storica in cui ci troviamo vuole che il patrimonio informativo, specialmente quello relativo alle attività terroristiche e quelle di radicalizzazione online, è di proprietà di grandi aziende. Questo crea una separazione tra quello che è il compito statale di garantire la sicurezza e fornire informazioni alle intelligence e il mondo delle grandi aziende, Meta in primis, che detengono questo patrimonio informativo. Si fatica a far comunicare questi due mondi, a fare in modo che queste aziende condividano le informazioni per creare tool e piattaforme che considerino eventi offline e online” spiega Campedelli.

Ci sono problemi tangibili, di natura tecnica, procedurale e persino legislativa. Questi sono tuttavia misurabili e superabili. Più difficile confrontarsi con l’entusiasmo che ruota attorno al mondo delle intelligenze artificiali, non sempre giustificato. Una fotografia che Gian Maria Campedelli incornicia così: “Quella delle AI è un’area in rapido sviluppo, al di là delle applicazioni nell’ambito del terrorismo, e porta con sé investimenti giganteschi nel privato e nel pubblico. Questo comporta dei problemi legati all’hype che ne consegue. Attorno al tema delle AI c’è spesso disinformazione maliziosa. Le AI sono argomento di dibattito che suscita molto interesse ma partendo da premesse sbagliate e ingigantendo le potenzialità del metodo”.

Conclusioni
Oggi è pressoché impossibile dire quando e come le AI potranno prevedere attacchi terroristici. Un processo in corso che può essere accelerato raccontandolo senza sensazionalismi che creano hype e ne rendono più difficile l’avanzamento a fronte dei primi inevitabili fallimenti. “Occorre andare contro la percezione che anima il dibattito pubblico in Italia e all’estero – conclude Campedelli – secondo cui il rapporto tra AI e scienze sociali sia qualcosa di nuovo. Non c’è nulla di più falso: gli algoritmi di machine learning più popolari di oggi sono nati 25-35 anni fa. Il rapporto tra AI e scienze sociali ha le sue origini attorno agli anni Ottanta (in rete si trovano articoli risalenti al 1985, nda) un rapporto che si è sopito nel tempo ma non certamente nuovo. Inoltre, per creare sistemi AI efficaci e rispettosi dei diritti umani la parola d’ordine è ‘cooperazione’, che si divide su tre livelli. Il primo è la collaborazione tra Stati. Non si può fare intelligence se ogni Paese guarda il proprio orticello. Crediamo di avere un’agenzia di intelligence europea che faccia da cappello a tutte le forze di intelligence nazionali, in realtà le informazioni all’Europol vengono date su base volontaria. Di fatto non c’è un’agenzia di intelligence europea che raccolga e incroci i dati. Viviamo in un mondo in cui i confini si allargano costantemente e mettere dei confini ai dati appare illogico. Il secondo livello di cooperazione è quello tra discipline, cosa molto problematica in Italia, dove si lavora per lo più a compartimenti stagni. Ci vuole un terreno comune sul quale tutte le discipline devono dialogare per potere crescere. Soltanto così si potrà pensare alle potenzialità e ai limiti delle AI in maniera più organica. È auspicabile anche una più proficua cooperazione tra la comunità scientifica e il mondo dell’intelligence”. Anche quando le AI saranno in grado di prevedere e anticipare gli episodi terroristici, rimarrà importante il lavoro di intelligence svolto dall’uomo sul territorio.