Meta exigirá la divulgación de contenido generado por IA en anuncios políticos a partir del próximo año.
La nueva política se anunció este miércoles 8 de noviembre en medio de las cada vez mayores preocupaciones sobre los daños potenciales de los deepfakes generados por IA (y otras formas de contenido modificado digitalmente) de cara a las elecciones presidenciales de Estados Unidos de 2024.
Meta se ha convertido en la última gran empresa tecnológica en tomar medidas contra la desinformación facilitada por la tecnología en la publicidad política.
Este miércoles, la compañía, propietaria de Instagram, Facebook, Messenger y WhatsApp, anunció una nueva política que exige a los anunciantes revelar algún contenido con carga social o política que haya sido creado o modificado digitalmente mediante el uso de inteligencia artificial u otra tecnología.
La nueva política global, que entrará en vigor a principios del próximo año, tiene como objetivo, en parte, combatir el aumento de los deepfakes (representaciones fraudulentas de personas o eventos reales creados con inteligencia artificial) en los anuncios políticos.
Este es un tema que se vuelve cada vez más urgente en los círculos políticos, tecnológicos y de marketing a medida que Estados Unidos se acerca a las elecciones presidenciales del próximo año.
Cambios en las políticas de anuncios de Facebook, WhatsApp e Instagram
Aunque actualmente se están dando algunos pasos importantes hacia la regulación gubernamental directa de la IA, corresponde a las empresas privadas mitigar los riesgos que plantea la tecnología, como su potencial para difundir información errónea dañina.
Meta se suma a Google, que anunció recientemente que los anunciantes políticos verificados que utilicen su plataforma para promocionar a un individuo que se postula para un cargo tendrían que revelar contenido modificado digitalmente.
Otras plataformas, como Adobe y TikTok, también han implementado políticas de etiquetado en un esfuerzo por notificar a los usuarios cuando se ha utilizado IA en el proceso de creación de contenido.
Una vez que la nueva política de Meta entre en vigor, los anunciantes que utilicen las plataformas de la compañía en algunos casos “tendrán que revelar siempre que un anuncio sobre un tema social, electoral o político contenga una imagen o video fotorrealista, o un audio que suene realista, que haya sido creado o alterado digitalmente”, dijo la marca en una publicación de blog publicada esta mañana.
Los anunciantes, por ejemplo, deberán revelar cuándo se utilizó la tecnología para “representar un evento realista que supuestamente ocurrió, pero que no es una imagen, video o grabación de audio real del evento”.
En paralelo, Vice informó este martes que imágenes fotorrealistas generadas por IA que parecen representar edificios bombardeados y otras formas de destrucción en Israel y Gaza se están vendiendo en el sitio de imágenes de archivo de Adobe.
Algunos están claramente etiquetados en su título como creados con IA, mientras que otros no, según el informe.
Meta dijo en la publicación del blog que los anunciantes no necesitarán revelar modificaciones digitales, como algunos casos de nitidez de imagen o corrección de color, que “son intrascendentes o irrelevantes para el reclamo, afirmación o problema planteado en el anuncio”.
Los anuncios que no se divulguen adecuadamente podrían eliminarse de Facebook, Instagram y WhatsApp, añadió la empresa, “y la falta repetida de divulgación puede dar lugar a sanciones contra el anunciante”.
Ahora lee:
Starbucks se adelanta con la carta para los Reyes Magos y lanzan este producto
Columbia y Star Wars preparados para invierno con esta colaboración
iendanube con nuevo Presidente para Latinoamérica; FCB celebra 150 años probando algo nuevo