Migliora su Facebook, grazie all'Intelligenza artificiale, l'individuazione dei contenuti d'odio. Il 97% di quelli rimossi è stato individuato dai sistemi automatizzati prima che qualsiasi utente li segnalasse. Nel trimestre precedente la percentuale era al 94%, l'80,5% alla fine del 2019, nel 2017 era al 24%. E' uno dati che emerge dal Report periodico sull'applicazione degli Standard della community che mostra come la società ha affrontato questo tipo di contenuti.
Riguardo altri due argomenti sensibili, bullismo e molestie sessuali l'individuazione grazie all'AI è passata su Facebook dal 26% nel terzo trimestre 2020 al 49% nel quarto trimestre, e su Instagram dal 55% all'80%. Un'altra area che ha fatto progressi con l'AI è il modo in cui i sistemi funzionano in più lingue, anche quelle ampiamente parlate come spagnolo e arabo: la quantità di contenuti di incitamento all'odio rimossa ha raggiunto 26,9 milioni, rispetto ai 22,1 del trimestre precedente.
"Stiamo lentamente proseguendo nel reintegrare la nostra forza lavoro addetta alla revisione dei contenuti a livello globale - spiega Guy Rosen, VP of Integrity di Facebook - anche se prevediamo che quest'area sarà influenzata dal Covid-19 fino a quando un vaccino non sarà ampiamente disponibile. A causa della limitata capacità, diamo priorità ai contenuti più dannosi, come i contenuti di suicidio e autolesionismo, che vengono esaminati dai nostri team".
Per il 2021 la società, "intende condividere ulteriori metriche su Instagram e aggiungere nuove categorie di policy su Facebook" e continuerà "a ottimizzare le tecnologie e gli sforzi per tenere i contenuti dannosi fuori dalle app". (ANSA).