Social network

Il mondo secondo Facebook: “Solo 3 messaggi su 10mila sono venati d’odio”

(afp)
Comunicati i nuovi dati sulla moderazione dei contenuti. Secondo il social network ormai la stragrande maggioranza di contenuti dannosi verrebbe bloccata prima della pubblicazione dall’intelligenza artificiale. Un’attitudine e dei risultati molto se non troppo diversi rispetto a quanto emerso nei Facebook Papers
3 minuti di lettura

Sembrano appartenere a due universi distinti: da una parte le accuse mosse da Frances Haugen, l'ex manager di Facebook che ha passato al Wall Street Journal (Wsj) quelle migliaia di documenti interni noti come Facebook Papers; dall'altro i numeri che la stessa compagnia comunica in fatto di lotta all'odio online e alle discriminazioni. Stando all'ultimo "rapporto sull'applicazione degli Standard della Comunità", gli algoritmi della multinazionale di Mark Zuckerberg sarebbero infatti sempre più efficaci. "Per il quarto trimestre consecutivo, la loro diffusione su Facebook e Instagram continua diminuire", spiega Guy Rosen, vicepresidente con la delega all'integrità (Integrity) dalla multinazionale che ha di recente cambiato il nome in Meta. "Siamo stati i primi in assoluto a rendere noti questo tipo di dati e sotto questo profilo abbiamo fatto da apripista".  

Nel terzo trimestre di quest'anno i discorsi d'odio avrebbero fatto breccia in appena lo 0,03% dei casi. Ovvero ci sarebbero state tre visualizzazioni di messaggi simili ogni 10mila, in calo rispetto allo 0,05% rispetto al trimestre precedente. "Osserviamo una progressiva riduzione grazie ai progressi fatti dalla nostra tecnologia e ai cambiamenti che abbiamo introdotto nei sistemi di classificazione che riducono i contenuti problematici nelle bacheche degli utenti", scrive la multinazionale", prosegue Rosen. Anche la diffusione di contenuti violenti o che istigano alla violenza sarebbero in apparenza irrilevanti: 0,04-0,05%, ovvero era fra le quattro e le cinque visualizzazioni ogni 10mila, mentre su Instagram si aggirerebbero attorno allo 0,02%.

Ma sono numeri che non convincono tutti. Non si capisce bene cosa si intenda esattamente per contenuti d'odio e le percentuali sono comunque generali, quelle per i singoli Paesi, in particolare dove non si parla inglese e nei quali gli algoritmi di Meta sono molto meno abili, non sono note. Stando alle mail rese note da Frances Haugen, infatti, all'interno della stessa compagnia diverse persone hanno avanzato dubbi sull'efficacia della moderazione dei contenuti e sul sistema di promozione dei più popolari che spesso sarebbero anche i più divisivi.

"Non è vero che gli algoritmi privilegiano quei contenuti, non foss'altro perché il sistema che gestisce la gerarchia dei messaggi sulle bacheche evolve di continuo e usa migliaia di indicatori che vanno ben oltre la sola popolarità", risponde Monika Bickert, vicepresidente con delega al Content Policy. "E il risultato è che la stragrande maggioranza dei contenuti non ha affatto un approccio divisivo o basato su emozioni negative".

Il social network afferma di aver rimosso 13,6 milioni di contenuti su Facebook che violavano le regole sulla violenza e sull'istigazione alla violenza e di aver rilevato proattivamente il 96,7% di questi contenuti, prima che qualcuno ce li segnalasse. Su Instagram, i messaggi rimossi ammonterebbero a 3,3 milioni di contenuti con un tasso di rilevamento proattivo del 96,4%. E laddove è necessario, Meta avrebbe collaborato anche con le forze dell'ordine quando pensava che ci fosse il rischio reale di danni fisici o di minacce per la sicurezza pubblica.

L'intelligenza artificiale di Facebook, o meglio di Meta, se la cava relativamente meno bene con bullismo e molestie che sarebbero lo 0,14-0,15%, ovvero tra le 14 e le 15 visualizzazioni di contenuti di bullismo e molestie ogni 10mila visualizzazioni di contenuti, e dello 0,05-0,06% su Instagram. Di messaggi del genere ne sarebbero stati rimossi 9,2 milioni su Facebook, con un tasso proattivo del 59,4%, e 7,8 milioni su Instagram, con un tasso proattivo dell'83,2%. "Il bullismo e le molestie sono ancora una sfida e una delle questioni più complesse da affrontare", ammettono da Menlo Park.

Meta sottolinea di avere gruppi di moderatori e di revisione che operano in tutto il mondo ed esaminano i contenuti in oltre 70 lingue. E di adoperare una intelligenza artificiale per i discorsi di odio in oltre 50 lingue. E ce ne sono altre, come  RIO, WPIE e XLM-R  che aiutano a identificare i contenuti dannosi più velocemente, in diverse lingue e attraverso differenti tipologie di contenuto, dal testo alle immagine, fino ai video.

"Una dei grandi avanzamenti è la capacità delle Ai di comprendere il senso generale dei contenuti, fatti magari di testo e immagini assieme e di farlo in sempre più lingue", spiega Mike Schroepfer, che da 13 anni è a capo delle tecnologie di Meta e che di recente ha annunciato di voler lasciare il suo ruolo nel 2022. "E la loro abilità supera ormai quella umana. Sono sistemi che hanno una efficacia che era inimmaginabile fino a qualche anno fa",

Come dicevamo all'inizio, c'è ormai uno scollamento profondo fra come la compagnia si rappresenta e come viene percepita all'esterno a forza di scandali più o meno fondati che però si susseguono dal 2016 con preoccupante regolarità. E su questo Meta non ha ancora sviluppato l'algoritmo giusto per ridurre la distanza abissale che separa i due mondi.