Stretta di Google sui deepfake, le immagini false create o modificate con l'intelligenza artificiale, un rischio per la corretta informazione e un danno per le persone coinvolte. L'azienda ha annunciato in un post ufficiale che filtrerà i risultati riducendo la possibilità che eventuali duplicati vengano visualizzati da più persone sul web, e cambierà la classificazione di questi contenuti.
Da tempo è possibile per gli utenti richiedere la rimozione di questo tipo di immagini in base alle policy di Google. La novità è che il gigante dei motori di ricerca cercherà anche tutti i siti web che contengono la stessa immagine, per rimuoverla automaticamente dai risultati. Questo aggiornamento dovrebbe aiutare a bloccare la condivisione di deepfake e la loro presenza sul web. "Queste protezioni hanno già dimostrato di essere efficaci nel contrastare altri tipi di immagini non consensuali - scrive Google - e ora abbiamo creato le stesse funzionalità anche per le immagini esplicite false".
Big G sta anche aggiornando i sistemi di classificazione per le ricerche in cui c'è un rischio maggiore che questi contenuti falsi appaiano. Nel momento in cui i parametri di ricerca immessi dall'utente facciano chiaro riferimento a questa tipologia di contenuti, il sistema cercherà di far emergere contenuti di alta qualità e non espliciti come articoli di notizie pertinenti, quando disponibili.
"Gli aggiornamenti che abbiamo apportato quest'anno hanno ridotto l'esposizione a risultati di immagini esplicite di oltre il 70% - sottolinea la responsabile della Ricerca Google, Emma Higham - C'è anche la necessità di distinguere i contenuti espliciti che sono reali e consensuali (come le scene di nudo di un attore) da quelli deepfake. Sebbene la distinzione sia una sfida tecnica per i motori di ricerca, stiamo apportando miglioramenti continui per far emergere meglio i contenuti legittimi e declassare i fake".
Leggi l'articolo completo su ANSA.it