Mark Read, CEO de WPP, ha sido víctima de un intento de estafa deepfake

  • Los estafadores utilizaron su imagen para crear una cuenta de WhatsApp y convocar una videollamada
  • Se hicieron pasar por Read en el chat y replicaron la imagen y voz de otro ejecutivo en la reunión
Mark Read, CEO de WPP

Mark Read, CEO del grupo publicitario WPP, ha sido objetivo de una estafa basada en deepfake en la que los delincuentes han utilizado su imagen y han replicado su voz utilizando inteligencia artificial. Estos habrían tomado fotografías del directivo disponibles en internet, así como vídeos alojados en YouTube, para establecer una videollamada con otros ejecutivos de la compañía. 

Tal y como informa The Guardian, aludiendo a un correo electrónico al que ha tenido acceso, los estafadores habrían utilizado las imágenes públicas de Read para crear una cuenta de WhatsApp y organizar una reunión de Microsoft Teams entre uno de los altos directivos de su agencia, otro alto ejecutivo y los estafadores.

Los estafadores emplearon imágenes disponibles públicamente online

Una vez en la plataforma de videollamadas, los estafadores se hicieron pasar por Read a través del chat; mientras que se utilizó voz clonada y metraje de YouTube para recrear al otro ejecutivo. El objetivo era que el directivo objetivo de la estafa estableciera un nuevo negocio con la intención de que los estafadores pudieran extraer datos personales y dinero. 

"Afortunadamente los atacantes no tuvieron éxito”, habría comentado Read en el email interno a su equipo. En dicha comunicación también señaló que WPP había “observado una creciente sofisticación en los ciberataques a nuestros colegas, y en aquellos dirigidos a altos líderes en particular”.

Un portavoz de WPP también ha confirmado que el intento de phishing se ha frustrado: "Gracias a la vigilancia de nuestra gente, incluido el ejecutivo en cuestión, se evitó el incidente".

El sofisticado ciberataque pone en evidencia la vulnerabilidad de personas de alto perfil cuyos detalles e imagen están fácilmente disponibles online. Demuestra también cómo emplean técnicas más personalizadas y con un mayor componente psicológico que las orientadas al público en general. 

El citado medio recuerda el caso en el que un ejecutivo de la extinta empresa de medios digitales Ozy Media se declaró culpable de fraude y robo de identidad después de utilizar un software de falsificación de voz para hacerse pasar por un ejecutivo de YouTube de cara a intentar engañar a Goldman Sachs para que invirtiera 40 millones de dólares en 2021.

Pese a que el intento de fraude a WPP ha empleado técnicas de IA generativa para la clonación de voz, también ha utilizado técnicas más simples como tomar una imagen disponible online y usarla como imagen de contacto. "El hecho de que la cuenta tenga mi foto no significa que sea yo", señaló Read en el correo electrónico, según The Guardian.

A este respecto, según el citado medio, el CEO del grupo también señalaba al equipo la importancia de permanecer alerta ante posibles indicios de estafa, como la solicitud de números de pasaporte, transferencias de dinero y menciones una “adquisición, transacción o pago secreto que nadie más conoce”.

Noticias Relacionadas

No es la primera vez que WPP ha sido objeto de estafa. Es una de las razones por las que en su página web figura un mensaje al respecto, en el que advierte a los usuarios que el nombre de WPP y el de sus agencias han sido utilizados de manera fraudulenta por terceros, a menudo en servicios de mensajería, sitios web y aplicaciones no oficiales.

Cualquier sitio web o aplicación que afirme tener una conexión con WPP, o cualquier miembro de la red, que anime a las personas a pagar cuotas de membresía o proporcionar información personal y/o financiera es fraudulento. Esté atento a este tipo de estafas e infórmelas a las autoridades correspondientes”, explican desde la compañía. “Estamos tomando medidas ante las autoridades pertinentes con el objetivo de detener el uso fraudulento de nuestras marcas”.

La democratización del acceso a las aplicaciones de inteligencia artificial está incrementando el número de ciberataques y estafas basadas en suplantación de identidad. La clonación de imagen y voz, sumada a la facilidad de obtener fotografías de figuras de relevancia, permite la imitación de apariencias en tan sólo unos minutos, lo que se está aplicando en fraudes o en acciones de desinformación. 

Abrir Formulario
Abrir Formulario