Meta anunció este miércoles que los anunciantes tendrán que manifestar si usaron Inteligencia Artificial (IA) u otro software para crear o alterar las imágenes o audios en publicidad política. El requisito tendrá efecto global en Facebook e Instagram a partir de comienzos del próximo año, según la casa matriz.

"Los anunciantes que hagan publicidad de problemas sociales, elecciones y política con Meta tendrán que decir si la imagen o el sonido han sido creados o alterados digitalmente, incluso con AI, para hacer decir a gente real cosas que no han hecho o dicho", afirmó en una publicación de Threads el presidente de asuntos globales de Meta, Nick Clegg.

Los anunciantes también tendrán que revelar cuando usan IA para crear gente o eventos realistas falsos. Además, los socios de verificación de Meta, entre los que está la agencia AFP, pueden etiquetar contenido como "alterado" si determinan que fue creado o editado de forma que resulte engañosa.

Entre los temores acerca de la cada vez más poderosa IA está el potencial fraude a los votantes durante las elecciones.

Otro gigante que está dando pasos para controlar este problema es Microsoft, que planea lanzar a principios de 2024 herramientas que permitan a los candidatos o campañas incluir "credenciales" en imágenes o video que produzcan.

El gigante tecnológico dijo que además desplegará un equipo para ayudar a las campañas a combatir amenazas basadas en la IA como ciberinfluencia o imágenes falsas.