A partire da novembre, Google chiederà agli inserzionisti che producono annunci politici di indicare se questi sono stati realizzati con l'aiuto di software di intelligenza artificiale. Una mossa che segue le varie foto diffuse nei mesi scorsi che riprendevano personaggi famosi, tra cui Donald Trump, in situazioni verosimili ma non reali. Come riporta Bloomberg, saranno gli inserzionisti a dover avvisare, proattivamente, Google della presenza di una foto o un video che riprende politici mentre parlano o dicono qualcosa che in realtà non hanno mai detto. In mancanza di tale comunicazione, il colosso potrà eliminare l'annuncio dalle sue piattaforme, fino a bloccare del tutto l'account di riferimento da cui è partito.
Gli inserzionisti dovranno dunque includere un linguaggio chiaro nelle immagini e nei video, come "Questo audio è stato generato dal computer" o "Questa immagine non rappresenta eventi reali". La novità non si applica a correzioni minori, come il ridimensionamento o la luminosità delle immagini.
"L'aggiornamento migliorerà le misure di trasparenza di Google per gli annunci elettorali - scrive la società - e contribuirà a sostenere ulteriormente la pubblicità politica responsabile, per fornire agli elettori le informazioni di cui hanno bisogno e prendere decisioni informate". Negli Stati Uniti, alcune campagne politiche stanno già sfruttando l'intelligenza artificiale per creare annunci pubblicitari. Ad aprile, il Comitato Nazionale Repubblicano ha pubblicato un post contenente immagini generate dall'intelligenza artificiale che prendevano di mira la candidatura alla rielezione del presidente Joe Biden. Anche il governatore della Florida, Ron DeSantis, ha pubblicato un annuncio che incorpora immagini generate dall'IA, con Donald Trump e Anthony Fauci, immunologo ed ex consigliere della Casa Bianca.
Leggi l'articolo completo su ANSA.it