Para lograr unas elecciones más democráticas y tratar de evitar el fraude en las elecciones. Es una medida a nivel global para Facebook e Instagram.
Meta (empresa que nuclea a Instagram y Facebook) afirmó que los anunciantes pronto tendrán que declarar si utilizaron Inteligencia Artificial (IA) u otro software para crear o alterar las imágenes o audios en publicidad política.
El requisito empezará a regir a partir de principios de 2024. “Los anunciantes que hagan publicidad de problemas sociales, elecciones y política con Meta tendrán que decir si la imagen o el sonido han sido creados o alterados digitalmente, incluso con AI, para hacer decir a gente real cosas que no han hecho o dicho”, anunció el presidente de asuntos globales de Meta, Nick Clegg, a través de Threads.
También deberán aclarar cuando usan IA para crear gente o eventos realistas falsos. También podrán etiquetar como contenido como “alterado” si determinan que fue creado o editado de forma que resulte engañosa. Esta tarea está a cargo de los socios de verificación de Meta, entre los que está la AFP.
Otra medida similar
Microsoft también se suma a la carrera en busca de seguridad. A principios de 2024 lanzaría herramientas que permitan a los candidatos o campañas incluir “credenciales” en imágenes o video.
Además, están formando un equipo para ayudar a combatir las amenazas que representa la IA en campañas, como lo son la ciberinfluencia o imágenes falsas.