Facebook ha pubblicato il nuovo
'Report sull'applicazione degli Standard della Comunità',
relativo al secondo trimestre del 2021. Si tratta di un
documento, giunto alla decima edizione, che fornisce le
indicazioni su come il gruppo ha applicato le policy sulle sue
app. Gran parte del lavoro si è concentrato nel gestire i
discorsi d'odio e come questi vengono posizionati nel news feed
degli utenti. "La rimozione di tali post è aumentata di oltre 15
volte su Facebook e Instagram, da quando abbiamo iniziato a
registrare questo dato" spiega il team. "Il tasso di
proattività, ossia la percentuale di contenuti su cui abbiamo
agito e che abbiamo individuato prima che un utente li
segnalasse, è superiore al 90% per 12 delle 13 aree di policy
prese in considerazione per Facebook e 9 su 11 per Instagram".
Nel merito dei contenuti particolarmente 'sensibili', non si
possono escludere quelli a tema Covid-19. "A livello globale,
abbiamo rimosso più di 20 milioni di contenuti da Facebook e
Instagram che violavano le nostre policy sulla disinformazione
legata al Covid-19. Eliminati oltre 3.000 account, pagine e
gruppi che hanno ripetutamente violato le regole contro la
diffusione di fake news, anche sui vaccini". In generale, sono
circa 190 milioni i contenuti relativi alla pandemia su cui il
social network ha inviato avvisi, perché valutati falsi dai
partner indipendenti per il fact checking, parzialmente falsi,
manipolati o privi di contesto. Quando un contenuto viene
considerato non del tutto attendibile, al suo fianco viene
aggiunta un'etichetta, così che le persone siano maggiormente
consce su ciò che condividono. "Abbiamo fornito informazioni
autorevoli per aiutare a migliorare il consenso sui vaccini, su
Facebook come su Instagram. Oggi sappiamo che, in base alle
ricerche, le persone sono più propense a farsi vaccinare se
vedono altri nella loro comunità che lo fanno".
Riproduzione riservata © Copyright ANSA