Se dal punto di vista finanziario, lo scandalo Cambridge Analytica pare essere già passato, per Facebook rimane aperta una discussione complessa: quella sui dati. Il social network di Mark Zuckerberg non può abbassare la guardia. Il datagate che lo ha colpito ne ha minato, per la prima volta, la credibilità. Ed è anche per questo che l’attenzione sul trattamento dei dati rimane altissima.
Oggi da Menlo Park hanno pubblicato un report che snocciola i numeri riguardanti l’impegno del social per la rimozione di contenuti ritenuti non consoni a quelli che Facebook chiama “Standard della comunità”.

I dati odierni dicono quanti contenuti in violazione, fra ottobre 2017 e marzo 2018, sono stati visti dalle persone, quanti contenuti Facebook ha rimosso e quanti contenuti sono stati rilevati in modo proattivo utilizzando la tecnologia, prima che le persone li segnalassero. Si tratta di contenuti legati a violenza esplicita, nudo (adulti), atti sessuali, propaganda terroristica, incitamento all’odio, spam e account falsi.

«La maggior parte delle azioni che intraprendiamo per rimuovere contenuti contrari ai nostri Standard, – dicono da Facebook – riguarda gli account falsi e la grande quantità di spam che generano. Ad esempio: abbiamo rimosso 837 milioni di contenuti di spam nel primo trimestre del 2018 – quasi il 100% dei quali sono stati trovati e contrassegnati prima che qualcuno li segnalasse. La chiave per combattere lo spam è rimuovere gli account falsi che lo diffondono.

Nel primo trimestre 2018 abbiamo disattivato circa 583 milioni di account falsi, la maggior parte dei quali bloccati entro pochi minuti dalla loro creazione. Questo si aggiunge ai milioni di tentativi di creazione di account falsi che ogni giorno sventiamo su Facebook. Complessivamente stimiamo che, durante questo periodo di tempo, fossero ancora falsi circa il 3-4% degli account attivi di Facebook».

Relativamente alle altre tipologie di contenuti che violano gli standard, Facebook fa sapere di aver rimosso «21 milioni di contenuti di nudo di adulti o pornografici nel primo trimestre del 2018, il 96% dei quali rilevati dalla nostra tecnologia prima di essere segnalati. Stimiamo, comunque, che s
u ogni 10.000 contenuti visualizzati su Facebook, 7-9 visualizzazioni abbiano riguardato contenuti che violavano i nostri Standard su nudo e pornografia».

Per argomenti delicati come la violenza esplicita e l’incitamento all’odio «la nostra tecnologia ancora non riesce a funzionare in maniera del tutto efficace ed è necessario l’intervento dei nostri team di revisione. Abbiamo rimosso o etichettato come potenzialmente pericolosi circa tre milioni e mezzo di contenuti violenti nei primi tre mesi del 2018, l’86% dei quali identificati dalla nostra tecnologia prima che venissero segnalati. Abbiamo, inoltre, rimosso due milioni e mezzo di contenuti che incitavano all’odio, il 38% dei quali sono stati rilevati direttamente dalla nostra tecnologia».

I limiti dell’intelligenza artificiale: Facebook, dunque, si è avvalsa di algoritmi basati sull’intelligenza artificiale per rimuovere alcuni contenuti. I limiti, tuttavia, sono ancora tanti. E da Menlo Park non ne fanno mistero: «Come sottolineato da Mark durante F8 – dicono dall’azienda californiana – abbiamo ancora molto lavoro da fare per prevenire gli abusi. L’intelligenza artificiale, pur essendo una tecnologia promettente, è ancora molto lontana dall’essere efficace per molti contenuti che violano i nostri standard, perché il contesto è ancora molto importante. Ad esempio, l’intelligenza artificiale non è ancora sufficiente per identificare se qualcuno sta incitando all’odio o se sta semplicemente descrivendo qualcosa che ha vissuto per denunciare pubblicamente il problema. Più in generale, la tecnologia necessita di un gran numero di dati di supporto per riuscire a riconoscere modelli significativi di comportamento, che noi spesso non abbiamo per lingue meno diffuse o per i casi che non vengono segnalati spesso. Inoltre, in molte aree – anche se si tratta di spam, pornografia o account falsi – ci scontriamo con avversari sofisticati che cambiano continuamente tattica per eludere i nostri controlli, il che significa che dobbiamo continuamente cambiare e adattare i nostri sforzi. Questo è il motivo per cui stiamo investendo in modo consistente in un numero maggiore di persone e in una tecnologia migliore per rendere Facebook più sicuro per tutti».