Facebook ha pubblicato il nuovo 'Report sull'applicazione degli Standard della Comunità', relativo al secondo trimestre del 2021. Si tratta di un documento, giunto alla decima edizione, che fornisce le indicazioni su come il gruppo ha applicato le policy sulle sue app. Gran parte del lavoro si è concentrato nel gestire i discorsi d'odio e come questi vengono posizionati nel news feed degli utenti. "La rimozione di tali post è aumentata di oltre 15 volte su Facebook e Instagram, da quando abbiamo iniziato a registrare questo dato" spiega il team. "Il tasso di proattività, ossia la percentuale di contenuti su cui abbiamo agito e che abbiamo individuato prima che un utente li segnalasse, è superiore al 90% per 12 delle 13 aree di policy prese in considerazione per Facebook e 9 su 11 per Instagram".
Nel merito dei contenuti particolarmente 'sensibili', non si possono escludere quelli a tema Covid-19. "A livello globale, abbiamo rimosso più di 20 milioni di contenuti da Facebook e Instagram che violavano le nostre policy sulla disinformazione legata al Covid-19. Eliminati oltre 3.000 account, pagine e gruppi che hanno ripetutamente violato le regole contro la diffusione di fake news, anche sui vaccini". In generale, sono circa 190 milioni i contenuti relativi alla pandemia su cui il social network ha inviato avvisi, perché valutati falsi dai partner indipendenti per il fact checking, parzialmente falsi, manipolati o privi di contesto. Quando un contenuto viene considerato non del tutto attendibile, al suo fianco viene aggiunta un'etichetta, così che le persone siano maggiormente consce su ciò che condividono. "Abbiamo fornito informazioni autorevoli per aiutare a migliorare il consenso sui vaccini, su Facebook come su Instagram. Oggi sappiamo che, in base alle ricerche, le persone sono più propense a farsi vaccinare se vedono altri nella loro comunità che lo fanno".
Riproduzione riservata © Copyright ANSA