Rubriche

Meta, team contro la disinformazione e l'IA in vista delle elezioni Ue

Già accordo con big tech per etichettare contenuti deepfake

Redazione Ansa

Un Centro operativo elettorale con esperti per identificare potenziali minacce online, un controllo stretto su deepfake e contenuti con l'intelligenza artificiale che prevede anche sanzioni. Sono gli impegni di Meta, azienda madre di Facebook e Instagram, in vista delle elezioni europee, spiegati in un post da Marco Pancini, Head of Eu Affairs della società.

Particolare attenzione viene riservata ai contenuti generati dall'intelligenza artificiale per cui Meta ha già sottoscritto un impegno a etichettarli con standard comuni insieme ad altri big della tecnologia. Una opzione per i deepfake (audio, video e immagini) è indicarli come "alterati" e ridurre la loro visibilità nel flusso di notizie. Inoltre, le immagini fotorealistiche create con gli strumenti di Meta ma anche di Google, OpenAI, Microsoft, Adobe, Midjourney e Shutterstock verranno indicate in modo chiaro e se necessario più visibili e con contenuti che spiegano il contesto. Gli utenti che condividono audio e video generato dall'IA dovranno aggiungere un'etichetta per evitare sanzioni, come l'eliminazione del contenuto o la sospensione dell'account. Lo stesso obbligo è previsto per gli inserzionisti che usano l'Intelligenza artificiale generativa per contenuti politici. Riguardo gli annunci politici, Meta ricorda il processo di trasparenza della piattaforma sugli inserzionisti grazie all'avviso 'Pagato da' per mostrare chi c'è dietro ogni annuncio.

"Tra luglio e dicembre 2023 - dice Pancini - abbiamo rimosso 430.000 annunci in tutta l'Ue perché non riportavano un disclaimer". "Crediamo sia importante che le persone sappiano quando i contenuti fotorealistici che vedono sono stati creati con l'intelligenza artificiale - conclude -. Questo lavoro va al di là di quello di una singola azienda e richiederà uno sforzo enorme da parte dell'industria del settore, dei governi e della società civile".

Leggi l'articolo completo su ANSA.it