A partir de mediados de noviembre Google requerirá a los anunciantes de publicidad política que incluyan identificadores en los anuncios creados utilizando inteligencia artificial. Concretamente, según su reciente actualización de las políticas de uso, la compañía requerirá que “revelen de manera destacada cuando sus anuncios contengan contenido sintético que represente de manera no auténtica personas o eventos reales o de apariencia realista”.
Dicha advertencia, según explica Google, deberá ser clara y visible, y colocarse en un lugar donde sea probable que los usuarios la lean. Las nuevas directrices se aplicarán tanto al contenido de imagen, como al de video y audio. En este sentido, y según informa Bloomberg, los anunciantes deben incluir un mensaje destacado como "Este audio fue generado por ordenador" o "Esta imagen no representa eventos reales" para advertir a los internautas.
La intención es evitar anuncios que muestren personas diciendo o haciendo algo que no ocurrió
Con este movimiento, y pensando especialmente en las elecciones de Estados Unidos del año que viene, la tecnológica busca evitar publicidad política que haga uso de la IA para hacer que alguien parezca como si estuviera diciendo o haciendo algo que nunca hizo, o fabrique de manera artificial un evento para crear una escena que nunca sucedió.
Sin embargo, Google indica que los anuncios que contengan contenido sintético alterado o generado de tal manera que no tenga consecuencias para las afirmaciones realizadas en el mensaje estarán exentos. Esto incluye técnicas de edición como cambio de tamaño de imagen, recorte, correcciones de color o brillo, corrección de defectos (por ejemplo, eliminación de "ojos rojos") o ediciones de fondos.
El objetivo de Google es mejorar sus medidas de transparencia para los anuncios electorales. "Ayudará a respaldar aún más la publicidad política responsable y brindará a los votantes la información que necesitan para tomar decisiones informadas", ha señalado Michael Aciman, portavoz de la compañía, al citado medio.
La medida forma parte de los esfuerzos de las grandes tecnológicas para plantar cara a las noticias falsas y a la desinformación y, de esta forma, satisfacer las exigencias en esta materia procedentes tanto de los usuarios como. de las autoridades. En el caso de Google, en 2018 comenzó a exigir a los anunciantes electorales que pasaran por un proceso de verificación de identidad, y un año después agregó restricciones de orientación para los anuncios electorales. También promociona su centro de transparencia de anuncios, donde el público puede consultar quién publicó anuncios electorales, cuánto gastaron y cuántas impresiones recibieron en sus plataformas.
Noticias Relacionadas
Under Armour usa inteligencia artificial para crear la charla motivacional “definitiva”
{"id":24970,"titular":"Under Armour usa inteligencia artificial para crear la charla motivacional “definitiva”","prefijo":null,"slug":null,"image":"https://www.reasonwhy.es/media/cache/noticia_relacionada/media/library/under-armour-1.jpg","path":"/actualidad/under-armour-usa-inteligencia-artificial-crear-charla-motivacional-definitiva"}La actualización de las políticas de Google busca alinearse con la realidad, y es que algunas campañas ya están haciendo uso de la inteligencia artificial para crear anuncios. Según apunta The Verge, en abril el Comité Nacional Republicano publicó un anuncio con imágenes generadas por inteligencia artificial dirigidas a la candidatura del presidente Joe Biden a la reelección, y que incluía una advertencia sobre las mismas. Por su parte, el gobernador de Florida, Ron DeSantis, también difundió un anuncio con imágenes sintéticas de Donald Trump y Anthony Fauci, ex asesor médico jefe de la Casa Blanca. Es por ello que algunas instituciones estadounidenses, como la Comisión Federal Electoral, están considerando imponer restricciones a los anuncios electorales que utilizan IA.