L’apertura al pubblico di un “centro sulla trasparenza” e nuovi numeri sull’efficacia dei moderatori e degli algoritmi. Facebook racconta la sua opera nel bloccare l’odio online e altri contenuti proibiti. Il social network di Mark Zuckerberg rende noti i risultati del primo quadrimestre del 2021, nell’usuale “Rapporto sull’applicazione degli Standard della Comunità”, ma stavolta fa un passo in più: “Spiegare come, quando e in base a quali norme un determinato commento, poco importa se testo, foto o video, viene cancellato”, racconta Guy Rosen, vice presidente con delega alla 'integrità' di Facebook.
Difficile che basti a placare le voci critiche che chiedono l’accesso ai dati, richiesta spesso motivata dal peso che hanno i social network nel dibattito politico e sociale. L’unica concessione fatta da Facebook è stata rivolgersi ad una firma indipendente, Ernst & Young, per verificare che i dati siano misurati e riportati correttamente. La collaborazione però non ha ancora prodotto alcun risultato ufficiale.
Guardando ai numeri, anche se bisogna tenere presente che sono statistiche su base globale, ormai in certi frangenti l’intervento dei moderatori e ancor più dell’intelligenza artificiale (Ai) di Facebook ha raggiunto livelli di efficacia notevoli. Nel primo trimestre del 2021, la diffusione di nudità di adulti sia su Facebook che su Instagram è stata ad esempio ridotta allo 0,03 o 0,04% sul totale dei contenuti con 28 milioni di contenuti bloccati prima ancora che venissero segnalati. I contenuti violenti e grafici invece sono fra lo 0,01 e lo 0,02% su Instagram e 0,03 e 0,04% su Facebook, con 16 milioni di post eliminati dalle contromisure di Facebook. In pratica a circa sei visualizzazioni ogni 10mila con 26,9 milioni di contenuti eliminati dai sistemi del social network. Al di là del mero spam, la categoria numericamente più rilevante assieme ai profili fasulli, sono questi i contenuti sui quali Facebook interviene maggiormente. Ed è la prima volta che la compagnia comunica non solo quel che ha cancellato ma anche ciò che è sfuggito.
“Ora però stiamo lavorando ad una nuova Ai che è capace di analizzare ad un tempo solo testi, immagini e video”, svela lo stesso Mike Schroepfer. “E può controllare se il contenuto viola una o più norme. Stavolta parliamo di un approccio molto ampio che va oltre il testo. Una foto innocua con un testo sotto altrettanto innocuo se preso singolarmente, possono avere un significato completamente diverso se messi assieme. Fino ad ora era un’analisi difficile per le Ai. Sono sottigliezze che si consideravano fuori portata per un’intelligenza artificiale. Ecco, stiamo superando questo ostacolo, in poche stiamo passando dall’analisi del dettaglio a quello del contesto nel quale i singoli elementi sono presentati confrontandoli anche con quanto pubblicato in passato”.
Non si è parlato però dell’algoritmo che organizza cosa le persone vedono sulle proprie bacheche. Quel sistema che spinge a proporre contenuti simili fra loro creando le cosiddette stanze di eco nelle quali ogni forma di confronto fra idee diverse viene bandita aumentando di fatto la polarizzazione della società. Una delle ultime ricerche della Ca’ Foscari di Venezia ha dimostrato che l’effetto c’è anche se non si è spinta fino a misurare la reale portata. E viene quindi da chiedersi cosa accadrebbe se le nuove Ai di Facebook, tanto avanzate nel capire fenomeni complessi, venissero impiegate proprio per capire come si formano le opinioni più estreme sul suo social network.