(ANSA) - ROMA - Ante las próximas elecciones europeas de junio, Meta se ha comprometido a crear un centro operativo electoral con expertos para identificar potenciales amenazas online, un control estrecho de deepfake y de contenidos con Inteligencia Artificial (IA).
Así lo explica en un post del italiano Marco Pancini, responsable para la Unión Europea (UE) de Meta, empresa madre de Facebook e Instagram.
Una atención especial está dedicada a los contenidos generados por IA, para lo que Meta ya suscribió el compromiso de etiquetarlos con estándares comunes junto a otras grandes empresas tecnológicas.
Una opción para los deepfake (audio, video e imágenes) es señalarlos como "alterados" y reducir su visibilidad en el hilo de noticias.
Además, las imágenes fotorealísticas creadas con los instrumentos de Meta, y también de Google, OpenAI, Microsoft, Adobe, Midjourney y Shutterstock, serán señaladas de forma clara y si es necesario más visibles y con contenidos que expliquen el contexto.
Los usuarios que comparten audio y video generados por IA deberán añadir una etiqueta para evitar sanciones, como la eliminación del contenido o la suspensión de las cuentas.
La misma obligación se prevé para los anunciantes que utilizan la IA generativa para contenidos políticos.
Respecto a los anuncios políticos, Meta recuerda el proceso de transparencia de la plataforma en los anunciantes gracias a la advertencia "Pagado por" para mostrar quién está detrás de cada anuncio.
"Entre julio y diciembre de 2023 hemos retirado 430.000 anuncios de toda la UE porque no incluían un descargo de responsabilidades", dice Pancini.
"Pensamos que es importante que las personas sepan cuándo los contenidos fotorealísticos que ven han sido creados con IA", concluye.
Este trabajo "va más allá del de una sola empresa y requerirá un esfuerzo enorme por parte de la industria del sector, de los gobiernos y de la sociedad civil". (ANSA).
Meta, equipo contra la desinformación y la IA
Ante las elecciones en la Unión Europea, varios recaudos