Facebook: “Chiusi miliardi di account fasulli. Ma sull’odio online dobbiamo ancora migliorare”
Jaime D'Alessandro
(ap)
Mark Zuckerberg rende pubblici i risultati del terzo rapporto sugli interventi dei moderatori e dell’intelligenza artificiale del social network. Sulle immagini proibite ormai l'azione è chirurgica e immediata, molto meno sul linguaggio scritto
Aggiornato alle 2 minuti di lettura
ROMA - A quanto pare l’intelligenza artificiale di Facebook sta iniziando a funzionare. Ma solo quando si tratta di immagini. Sul senso di una frase, come era facile prevedere, le Ai del social network sono ancora incerte perché non esiste nessun sistema automatico che sappia distinguere con precisione uno scherzo da un’aggressione verbale. E' questo uno dei dati che emerge dal terzo Community Standards Enforcement Report, la relazione del social network che copre gli interventi fatti dall’ultimo quarto del 2018 al primo del 2019.
“So che dobbiamo fare di più nel campo del bullismo”, ha ammesso lo stesso Mark Zuckerberg. E sull’odio online, altro territorio difficile, ha aggiunto: “Ogni cultura e ogni Paese ha una sua diversa forma di espressione dell’odio. E alla fine è una decisione che poi dobbiamo prendere noi. Come già detto di recente, mi piacerebbe invece che esistessero degli standard e delle regole stabilite dai governi”.
Sulle immagini pedopornografiche ormai Facebook interviene prima ancora che vengano pubblicate e solo lo 0,03% vengono poi viste da qualche utente. Parliamo di 21 milioni di foto sulle quali, nel periodo preso in esame, il social network è arrivato nel 99 per cento dei casi prima che venissero segnalate. Spam, propaganda terrorista, immagini di violenza e account fasulli vengono scovati con la stessa precisione chirurgica. Per bullismo e odio online invece le cose cambiano.
Per quest’ultimo su poco meno di 17 milioni di contenuti, nei primi mesi del 2019 l’intervento di Facebook prima di una segnalazione è stato del 65%, per il bullismo di appena il 14%. Ma se nel caso dell’odio le percentuali sono aumentate costantemente, era il 23,6% alla fine del 2018, per il bullismo i risultati del 2019 sono addirittura inferiori di quelli già modesti del 2018. Colpa, come spiega Zuckerberg, di altre emergenze che il team di 15mila moderatori ha dovuto affrontare.
Notevole la quantità di account falsi chiusi, a causa di sistemi automatici che tentano di crearne in grandi volumi contemporaneamente. “Ne abbiamo disattivato 1,2 miliardi nel quarto trimestre 2018 e 2,19 miliardi nel primo trimestre 2019”, fa sapere Guy Rosen, vice presidente di Facebook. Per la prima volta sono stati incluse anche le quantità di contenuti censurati sui quali le persone hanno fatto appello e quelli ripristinati. E di nuovo i tassi maggiori di ripristino riguardano sempre odio e bullismo dove la differenza la fa il contesto nel quale una frase appare e dove è più facile fraintendere.
“Non è abbastanza, ma i risultati che stiamo ottenendo sono incoraggianti”, prosegue Guy Rosen. Facebook sta addestrando ora le Ai sul lavoro dei moderatori per cercare di fargli comprendere meglio tutte le sfumature del linguaggio. Ma è un percorso, stando agli esperti di intelligenza artificiale, ancora molto lungo. “Il budget che la compagnia sta investendo in sicurezza nel 2018 è maggiore dei guadagni realizzati in tutto il 2012” conclude Zuckerberg, tornando ad insistere sulla necessità di regole decise dai governi.