Rubriche

Comitato indipendente, 'Meta riveda le regole sui deepfake'

Sulle immagini con l'IA anche la formulazione non è "sufficientemente chiara"

Redazione Ansa

Le politiche di Meta sulle immagini deepfake non consensuali ed esplcite necessitano un aggiornamento, compresa la formulazione che non sono "sufficientemente chiare". Lo ha affermato l'Oversight Board, il comitato di supervisione indipendente istituito nel 2020, sul caso di immagini esplicite generate dall'intelligenza artificiale di due persone famose.

Il consiglio è intervenuto dopo che Meta, nonostante le segnalazioni, non ha rimosso un deepake di una donna indiana. "Un utente ha segnalato il contenuto a Meta per pornografia, ma poiché la notifica non è stata esaminata entro 48 ore, è stata automaticamente chiusa. Lo stesso ha quindi fatto ricorso, ma anche il secondo tentativo è stato chiuso in maniera automatica" scrive sul proprio sito web l'Oversight Board. In un altro caso, Meta ha censurato un post condiviso su un gruppo Facebook dedicato all'arte con l'IA che mostrava un'immagine esplicita generata dall'intelligenza artificiale. In entrambi i casi, il Board ha affermato che i deepfake violavano le regole dell'azienda, che i termini usati per descrivere le regole sono obsoleti e potrebbero rendere più difficile per gli utenti segnalarle contenuti vietati.

"Le politiche di Meta sulle immagini deepfake non consensuali devono essere aggiornate, inclusa la descrizione, 'non sufficientemente chiara', di ciò che deve essere considerato un post lesivo della persona" afferma il consiglio, che prosegue: "Oggi con l'IA è possibile creare o modificare le immagini. Meta dovrebbe garantire che il suo divieto di contenuti denigratori copra questa più ampia gamma di tecniche, in un modo che sia chiaro sia agli utenti che ai dipendenti". In una nota di risposta, Meta ha affermato di aver accolto con favore le raccomandazioni del consiglio e che sta lavorando per esaminarle.

Leggi l'articolo completo su ANSA.it