/ricerca/ansait/search.shtml?tag=
Mostra meno

Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

DisinfoLab, insufficienti sforzi Big Tech per mitigare rischi IA

DisinfoLab, insufficienti sforzi Big Tech per mitigare rischi IA

'Etichettatura contenuti creati non è soluzione a fake news'

BRUXELLES, 02 luglio 2024, 13:01

Redazione ANSA

ANSACheck
DisinfoLab, insufficienti sforzi Big Tech per mitigare rischi IA © ANSA/EPA

DisinfoLab, insufficienti sforzi Big Tech per mitigare rischi IA © ANSA/EPA

Le misure annunciate dalle piattaforme digitali per affrontare i rischi potenziali derivanti dall'uso dell'intelligenza artificiale per generare disinformazione nella maggior parte dei casi "non aprono un vero e proprio capitolo nella gestione dei contenuti creati dall'IA".
    È quanto emerge da un rapporto curato da Eu Disinfo Lab, organizzazione indipendente no-profit che si occupa di contrastare la disinformazione a livello europeo.
    Nel rapporto, che analizza in particolare le politiche di Meta, YouTube, X e TikTok, si sottolinea come le piattaforme abbiano focalizzato la propria attenzione sull'etichettatura dei contenuti IA come soluzione. Emblematico il caso di Meta, che ha "rafforzato il suo approccio all'etichettatura", mostrando "una maggiore riluttanza a rimuovere i contenuti generati dall'IA".
    Da luglio in poi, Meta non rimuoverà i contenuti generati o manipolati dall'IA esclusivamente sulla base della sua politica sui video manipolati, a meno che non violi altre politiche, come l'interferenza con gli elettori, il bullismo, le molestie, ecc.
    Secondo gli esperti, si tratta di un "passo indietro" rispetto alle sfide poste dalla moderazione dei contenuti generati dall'IA.
    Molti dei problemi già evidenziati persisteranno anche nel 2024, osservano gli esperti, secondo cui l'etichettatura non affronta tutti i rischi posti dalle tecnologie AI. Si compiono pochi sforzi per l'auto-rilevazione, il che può lasciare una scappatoia per i contenuti che l'industria tech o gli utenti non identificano.
    Inoltre, le piattaforme continuano a trascurare i testi creati con l'IA nelle loro policy, che si riferiscono solo a immagini e video, e più recentemente all'audio. "Ignorare i rischi posti dai testi generati dall'IA - scrivono gli esperti - può essere una negligenza, soprattutto quando aziende di IA come OpenAI hanno recentemente rivelato come i loro strumenti vengono usati per generare dei testi impiegati in alcune operazioni di influenza coperte". 
   

Riproduzione riservata © Copyright ANSA

Da non perdere

Condividi

O utilizza