Ask Delphi, l'intelligenza artificiale che fornisce risposte a dilemmi morali

La sfida dei ricercatori di Allen Institute for AI è quella di creare un sistema in grado di apprendere norme morali e assumere comportamenti eticamente fondati
2 minuti di lettura

I dilemmi morali possono ora essere risolti interpellando l'intelligenza artificiale (IA) di Ask Delphi. A realizzarla sono stati i ricercatori della University of Washington e di Allen Institute for AI per consentire di ottenere risposte a problemi etici che si pongono le persone nella loro vita pratica quotidiana.
Per mettere alla prova il sistema, basta andare sul sito, online dal 14 ottobre, e digitare (in lingua inglese) il testo di una domanda nello spazio appositamente creato per formulare i quesiti degli utenti.

Honda Avatar Robot: renderà possibile la mobilità virtuale


A interrogativi come “è giusto ascoltare musica di notte con il volume alto mentre i vicini dormono? È morale tradire il mio coniuge? Va bene non rispondere a una chiamata di un familiare? E aiutare un amico in difficoltà anche se viola la legge?” Ask Delphi, basato su algoritmi di deep learning, è in grado di replicare immediatamente. Con giudizi e risposte come sì o no, “è giusto”, “è sbagliato”, “è ragionevole”, “è scortese”, “è pericoloso”, “è irresponsabile”, “non si fa”, anche riuscendo a mettere a confronto diverse situazioni che implicano opzioni etiche.
Lo scopo dichiarato dei ricercatori, descritto in nello studio Delphi: Towards Machine Ethics and Norms, è testare la capacità di un sistema, ancora in versione beta, di apprendere norme morali e assumere comportamenti eticamente fondati, in un momento in cui l'intelligenza artificiale si diffonde progressivamente nella società e connota sempre più le attività umane in diversi settori.

All'IA vengono affidati compiti crescenti, dalla valutazione dei curricula all' autorizzazione di prestiti mentre si moltiplicano i robot che assistono gli anziani e chatbot che conversano con le persone. Occuparsi di etica delle macchine è diventata un'esigenza impellente non più rinviabile, soprattutto per assicurare una più sicura interazione tra sistemi artificiali intelligenti ed esseri umani.
È necessario, in particolare, addestrare l'intelligenza artificiale a comprendere ciò che è sbagliato e ciò che è giusto, a partire dal modo di pensare di una persona comune rispetto alle molteplici e complesse situazioni della vita reale. A supporto di questo obiettivo, è stato costruito l'archivio Commonsense Norm Bank che contiene una collezione di oltre 1 milione e 700mila esempi di giudizi umani su un ampio spettro di questioni concrete, con il ricorso alla piattaforma di Amazon Mechanical Turk e al sito Reddit.

Il risultato è un prototipo di intelligenza artificiale che mostra grandi promesse nel ragionare in modo etico plasmandosi sul pensiero di un individuo medio americano, del quale riflette gli stessi pregiudizi, ma anche forti limiti e lacune. Non appena comparso su Internet Ask Delphi è diventato subito virale. Ma hanno anche cominciato a fioccare le critiche sull'assurdità delle risposte date e sulla pericolosità di affidare a una macchina le scelte morali umane. I test effettuati dagli utenti ne hanno fatto emergere errori, vizi e storture. Chiedendo ad esempio di formulare un giudizio su “un uomo di colore si avvicina a te di notte” il sistema tuttora risponde “è preoccupante”. Se l'uomo, invece, è bianco tutto è ok per la macchina.

Ask Delphi è tutt'altro che infallibile, questo è chiaro, anche perché è un modello in fase sperimentale in grado comunque di correggersi. Va detto, come avvertono i ricercatori sul sito, che non bisogna usare il sistema per avere consigli su come agire nella vita: Ask Delphi non è l'oracolo che dispensa sentenze morali definitive come se fossero le parole sacre di un nuovo dio dell'intelligenza artificiale.