Conoce Atico34 - Solicita presupuesto
CiberseguridadInteligencia artificial

Estafas con voces clonadas por IA: Cómo protegernos

Las estafas con voces clonadas por IA cada vez son más habituales y, según una encuesta llevada a cabo por McAfee, el 77% de las víctimas de este tipo estafa acabaron enviando dinero. Saber cómo funcionan y reconocerlas es fundamental para protegernos ante ellas.

¿Qué son las estafas con voces clonadas con IA?

Las estafas con voces clonadas con IA son un reciente tipo de estafa, en la que los cibercriminales aprovechan y hacen uso de una IA de clonar voz para engañar a sus víctimas. Normalmente, realizan una llamada telefónica en las que usan la voz de un familiar o amigo que pide que le enviemos dinero porque se encuentra en alguna clase de problema y situación de emergencia.

También se han comenzado a sufrir este tipo de estafas en las empresas, para engañar a empleados haciéndoles creer que hablan con un superior o con su jefe y conseguir que realicen una transferencia de dinero a favor de los cibercriminales.

Las estafas con voces clonadas por inteligencia artificial son, por lo tanto, un tipo de ciberataque que aúna el deepfake de voz y la suplantación de identidad para lograr que las víctimas acaben realizando un envío de dinero.

Estas estafas de voces clonadas mediante IA se están convirtiendo en uno de los casos de suplantación de identidad más recientes y uno de los problemas más actuales en torno a la protección de datos e inteligencia artificial, puesto que para llevarlas a cabo, los cibercriminales hacen uso de nuestros datos personales y de aquellos familiares, amigos o conocidos por los que se hacen pasar, incluso requieren, generalmente y cómo veremos a continuación, del robo de la cuenta de WhatsApp de la persona por la que se hacen pasar.

tarifas proteccion datos

¿Cómo se utilizan las voces clonadas para cometer estafas?

Responder a cómo se utilizan las voces clonadas para cometer estafas requiere de conocer el modus operandi más habitual para llevar a cabo este fraude.

En primer lugar, el cibercriminal tratará de hacerse con una grabación de la voz de la persona a la que va a suplantar, para poder clonar la voz utilizando inteligencia artificial y así poder usarla para reproducir cualquier otro audio (técnicamente, treinta segundos de audio son suficientes). Estas muestras de voz pueden obtenerlas de internet, por ejemplo, si publicamos notas de audio o vídeos con nuestra voz, o incluso pueden obtenerla a través de una llamada fraudulenta.

Una vez tienen la voz clonada, el siguiente paso es contactar con la víctima. Aquí pueden usar dos métodos diferentes: nota de voz por WhatsApp o llamada telefónica. Para darle mayor credibilidad, pueden haber robado la cuenta de WhatsApp de la persona por la que se están haciendo pasar, pero también pueden hacerlo desde otro número, alegando que han perdido su teléfono o se lo han robado.

El contenido del mensaje de voz o de la llamada será de carácter urgente, porque van a pedir que la víctima les envíe dinero para poder salir de una situación de emergencia (un robo, un arresto, un secuestro, hacer un pago urgente que ellos no pueden, etc.), la cuestión es no dejar mucho margen a que la víctima piense y actúe rápido. El pago lo pedirán vía Bizum o similar, cualquier método que sea rápido.

La clave de esta estafa está, precisamente, en la urgencia del mensaje y en que la voz suena igual a la de persona real, lo que nos puede llevar a creer que es una situación real y a caer en la trampa.

¿Cómo protegerte ante una estafa de voz clonada?

Para protegernos ante una estafa de voz clonada, conocer cómo funcionan es ya un primer paso, porque seremos conscientes de que podemos recibir este tipo de llamadas o notas de audio vía WhatsApp.

Si recibimos este tipo de notas de audio, lo recomendable es llamar a la persona que nos la ha enviado para confirmar su autenticidad y llamarla a su número de móvil (no utilizando la llamada de WhatsApp). Si contesta y niega haber enviado el audio, ya sabremos que estamos ante una estafa.

En caso de ser una llamada, podemos pedir a otra persona que esté con nosotros que pruebe a llamar a esa persona. Si contestan o no da comunicando, las posibilidades de estar ante esta estafa son muy claras.

En caso de no poder localizar a la persona que supuestamente nos ha enviado el audio o estemos hablando con ella, existe otra medida de seguridad que podemos poner en práctica y es recurrir a una contraseña familiar, como aconsejan desde la Electronic Frontier Foundation (EFF) y diferentes firmas de seguridad.

Esta contraseña puede ser una o varias palabras clave que solo conozcan nuestros seres más allegados, que pueda ser fácil de recordar en momentos de urgencia, y que pediremos cuando recibamos este tipo de llamadas o audios.

En ausencia de una contraseña familiar, también podemos preguntar a quien nos llama o nos envía el audio alguna información personal sobre nosotros que solo conozcan ellos (o muy poca gente).

¿Cómo evitar ser víctimas de esta estafa?

Para evitar ser víctimas de estafas con voces clonadas (mientras entra en vigor la Ley de Inteligencia Artificial y se regula el uso de esta tecnología), podemos seguir estos consejos:

  • Poner en práctica las medidas descritas más arriba: llamar o ponernos en contacto por otro medio con la persona que supuestamente necesita que le enviemos el dinero, para comprobar la veracidad de la petición.
  • Tener una contraseña familiar.
  • Limitar la información personal que publicamos en redes, incluidos los audios y vídeos y configurar los ajustes de privacidad para que lo que compartimos, solo puedan verlo nuestros contactos.
  • En la empresa, formar a los empleados sobre este tipo de estafas y qué medidas deben poner en práctica para no caer en ellas.
  • Nunca enviar dinero a nadie hasta haber confirmado la identidad de la persona que lo pide y la veracidad de su historia.
  • Si nos han hackeado el WhatsApp o tenemos la sospecha de que ha podido pasar, informar a nuestros contactos para que sospechen de cualquier petición de dinero que les pueda llegar en nuestro nombre.

En definitiva, sabiendo que la clonación de voz mediante inteligencia artificial es ya una realidad, estar prevenidos ante este tipo de estafas es fundamental para no caer en ellas.