In evidenza
Sezioni
Magazine
Annunci
Quotidiani GNN
Comuni

Dopo Musk, l'appello di Bengio: stop all'Intelligenza artificiale, dobbiamo riflettere

Yoshua Bengio, direttore scientifico del Mila in Canada
Yoshua Bengio, direttore scientifico del Mila in Canada 
Il primo firmatario della richiesta di moratoria e uno dei maggiori esperti al mondo precisa: "L'intelligenza artificiale può essere immensamente utile, ma se è anche distruttiva, forse vale la pena rallentare. E sei mesi non basteranno"
4 minuti di lettura

Il suo nome compare proprio in cima all'appello apparso su "The future of life Institute" e firmato poi da altri big dell'Intelligenza Artificiale, da Elon Musk a Steve Wozniak: uno stop temporaneo, una moratoria di sei mesi. O quantomeno un momento di riflessione per capire dove ci sta portando tutto questo, a una velocità impensabile fino a pochi anni fa. Così Yoshua Bengio, massimo esperto del deep learning e fondatore e direttore scientifico del Mila, l'Istituto del Quebec dedicato alle ricerche sull'Intelligenza Artificiale, spiega il senso di questo appello.

Professor Bengio, lei è il primo firmatario - insieme a grandi nomi dell'Intelligenza Artificiale - di un appello che chiede una moratoria di almeno sei mesi sulle ricerche in questo settore. Cosa sta succedendo?

"Chiariamo una cosa: al momento non ci sono grandi novità scientifiche sui sistemi in grado di generare e comprendere testi e immagini. Il punto è che stanno raggiungendo risultati sorprendentemente buoni, tanto che ora abbiamo sistemi di Intelligenza Artificiale in grado di superare il test di Turing. In altre parole, possiamo interagire con un computer senza avere la certezza che si tratti di un umano o di una macchina. E questa è una pietra miliare. E' vero, questi sistemi non sono ancora intelligenti come noi, non possono ragionare come gli umani, presentano ancora molti problemi dal punto di vista scientifico. Ma indubbiamente hanno raggiunto un livello molto elevato che può trarre in inganno le persone. Immaginiamo per esempio di ricevere e-mail o messaggi da qualcuno che pensiamo di conoscere e di cui ci fidiamo, che ci invita a votare per un determinato partito, o ci spinge a compiere determinate azioni. Certo, questo già succede con i social media. Ma questi sistemi consentono l'invio di messaggi personalizzati, indistinguibili da quelli scritti da un essere umano. In questo senso, sono sistemi che possono essere usati per la disinformazione, e porre una grande minaccia alla democrazia. Lo scopo di questo appello è proprio quello di lanciare l'allarme: siamo davanti a uno strumento potente quanto le armi nucleari. E anche in questo caso abbiamo bisogno di trattati internazionali che possano mettere i giusti paletti, e tenere sotto controllo la sicurezza globale. L'intelligenza artificiale può essere immensamente utile, ma se è anche distruttiva, forse vale la pena rallentare".

Pensa che una moratoria di sei mesi sia sufficiente?

"Ovviamente no. Sei mesi non bastano per adattarsi a questi cambiamenti. E nemmeno per produrre a una nuova legislazione, visto che l'Unione Europea ci sta lavorando da quattro anni. Ma in questo momento ci sono solo cinque o sei aziende al mondo che hanno il capitale e il talento per produrre sistemi così avanzati. E potrebbero essere proprio loro a concordare una pausa e a chiedere una legislazione adeguata. In fondo, il loro interesse è che ogni attore sul mercato giochi con le stesse regole. A questo servono i governi, a creare delle norme collettive per regolare un settore che altrimenti resta una giungla.

Ma la politica è pronta per affrontare un tema così delicato?

"Niente affatto. Per questo è importante discutere di questi temi. La posta in gioco è altissima, e dobbiamo cominciare a lavorare per una regolamentazione. La California, per esempio, ha approvato una legge per cui quando vengono mostrati contenuti generati da macchine e non da esseri umani, questo deve essere chiaro all'utente. Non sarà una legge perfetta, ma è già qualcosa. Purtroppo i tempi della politica sono molto lenti, ci sono opinioni diverse, è necessario un accordo tra i partiti e così via. Lo scopo di questo appello è quello di aumentare la consapevolezza e cominciare ad avviare una discussione seria a livello politico, culturale e sociale".

Una moratoria di sei mesi potrebbe influire anche sulle sue ricerche?

"No, perché non abbiamo quel tipo di potenza di calcolo. In realtà, quasi nessuno ce l'ha. Come ho detto, solo pochissime aziende sono in grado di lavorare a quei livelli e sarebbero quindi influenzate da uno stop. Una delle cose che vorrei sottolineare è proprio questa: non dobbiamo lasciare tutto questo potere nelle mani dei privati. I governi dovrebbero investire nel lato positivo dell'intelligenza artificiale: nei sistemi in grado di prevedere le conseguenze del cambiamento climatico o di trovare terapie più efficaci o di salvarci dalle pandemie future. Questa è l'intelligenza artificiale in grado di rendere il mondo un posto migliore, non solo quella che potenzia i motori di ricerca, la pubblicità e i social media".

Non vede il rischio che in ogni caso l'Intelligenza Artificiale ampli il divario tra i paesi ricchi e quelli a basso reddito?

"Qualunque strumento potente può aumentare le disuguaglianze. Già oggi ci sono pochissime aziende in grado di costruire sistemi avanzati di Intelligenza Artificiale, in una sorta di monopolio concentrato in due o tre paesi. E tutto questo non va bene né per il capitalismo né per la democrazia, che in teoria significa "potere nelle mani del popolo", certo non "concentrazione del potere nelle mani di pochi". Questi strumenti possono essere usati a fin di bene, ma possono anche aumentare il divario tra individui e tra paesi. Quindi dobbiamo assicurarci che le regioni in via di sviluppo ne traggano beneficio, e che questi strumenti rappresentino un vantaggio anche per le persone meno istruite in fatto di tecnologia. Perché gli effetti a lungo termine dell'Intelligenza Artificiale saranno soprattutto sul mercato del lavoro: alcuni settori diventeranno più efficienti, e ci sarà bisogno di meno personale. Se questo avvenisse molto in fretta, provocherebbe profondi sconvolgimenti sociali, come del resto è già accaduto in passato. Non abbiamo la sfera di cristallo, ma abbiamo la responsabilità di arrivare preparati e con sistemi di controllo e sicurezza".

Non pensa che sia troppo tardi?

"Non è mai troppo tardi. Come nel caso del cambiamento climatico, non è mai troppo tardi per migliorare le cose, per ridurre i danni. E abbiamo il dovere di crederci: anche se le cose vanno male e sembrano senza speranza, abbiamo il dovere di trovare modi per migliorare le cose. Anche se non abbiamo garanzie che funzioni, dobbiamo provare e riprovare".

In quanto scienziato e pioniere dell'AI, sente una sorta di responsabilità per quello che sta succedendo? Se potesse tornare indietro, farebbe qualcosa di diverso?

"Credo che se potessi tornare indietro, avrei stimolato prima le riflessioni sugli effetti dell'Intelligenza Artificiale sulla società. La discussione su come dobbiamo prepararci all'impatto di questi strumenti risale più o meno al 2015. E nel 2017 proprio qui abbiamo lavorato alla Dichiarazione di Montréal per lo sviluppo responsabile dell'IA. Quello che è importante oggi è sviluppare la consapevolezza collettiva e impostare delle norme sociali in grado di guidare la barca in una direzione migliore".