Imagina que recibes una llamada del móvil de tu hijo, y te saluda con un grito desesperado diciéndote “Pa, porfa ayúdame, me secuestraron y me dicen que me van a matar, ayúdame ‘gordo’ o no sé qué me va a pasar”, en ese momento una segunda persona toma el teléfono, te llama por tu nombre y te dice que si en las siguientes 2 horas no le depositas el dinero que te pide a una cuenta que te acaban de mandar por SMS, acabará con la vida de tu querido hijo, mientras en el fondo lo escuchas gritar y pedir ayuda. Ahora imagina que en efecto la voz que escuchaste suena idéntica a la de tu hijo, que él en efecto se refiere a ti como “Pa” y de cariño, tal cual escuchaste te dice “Gordo”.

Hoy todo un ataque como este se puede generar con tecnología, e inteligencia artificial y tu hijo esas dos horas tal vez está en el cine, en una cena o en cualquier otro lugar. Este tipo de ataques cibernéticos, con estafas telefónicas llevadas a un nuevo nivel son aterradores, y son reales.

Hace unos días, este incidente fue reportado por la familia DeStefano en Arizona, según relata el New York Post. Jennifer DeStefano reporta haber recibido la llamada de “su hija” supuestamente secuestrada para inmediatamente pasar la bocina al secuestrador quien le pidió un millón de dólares por la vida de su hija. Jennifer declara que ni por un segundo dudó que fuera la voz de su hija.

Este ataque se suma a una creciente red de ataques donde un engaño que suplanta la identidad (voz, número de teléfono, y foto) en llamadas de tus familiares, han tomado a decenas de padres de familia por sorpresa, y logrado cuantiosos rescates.

El intento de secuestro de Brie (la hija de DeStefano) además de la extorsión se le sumaron sollozos, gritos y llantos de la supuesta (clonada) Brie y amenazas por parte del secuestrador de drogarla y dañarla si no se pagaba el rescate, mientras que en el fondo se escuchaba todavía la voz de Brie llorando y pidiendo auxilio.

El intento de extorsión en esta ocasión fue fallido ya que Stephanie a través de otra línea telefónica logró contactar a su hija Brie, quien estaba en un viaje perfectamente sana.

La amenaza no tuvo frutos, pero en todo momento la víctima, Jennifer estuvo convencida de que tenían a su hija ya que, declara, la voz, su inflexión, las palabras que usaba para suplicar ayuda desde el fondo y hasta su forma de llorar eran idénticas.

La identidad del atacante cibernético se desconoce hasta este momento, sin embargo los expertos en informática de Arizona declaran que la tecnología de clonación de voz ha evolucionado hasta el punto de que el tono y la forma de hablar de alguien se pueden recrear a partir de fragmentos de sonido muy breves.

“Al principio, requeriría una mayor cantidad de muestras”, explicó Subbarao Kambhampati, profesor de informática y autoridad en IA de la Universidad Estatal de Arizona. “Ahora hay formas en las que puedes hacer esto con solo tres segundos de tu voz. Tres segundos. Y con los tres segundos, puede acercarse a cómo suenas exactamente”.

Con un tamaño de muestra lo suficientemente grande, la IA puede imitar la "inflexión" de uno, así como su "emoción", según el profesor.

DeStefano encontró la simulación de voz particularmente inquietante dado que “Brie no tiene ninguna cuenta pública de redes sociales que tenga su voz”, según una publicación en el sitio web.

“Tiene algunas entrevistas públicas para deportes/escuela que tienen una gran muestra de su voz”, describió la madre de Brie. “Sin embargo, esto es algo que debe preocupar más a los niños que tienen cuentas públicas”.

De hecho, los expertos del FBI advierten que los estafadores suelen encontrar sus objetivos en las redes sociales. “Si tienes tu información pública, te estás permitiendo ser estafado por personas como esta”, dijo Dan Mayo, el asistente del agente especial a cargo de la oficina del FBI en Phoenix. “Van a buscar perfiles públicos que tengan la mayor cantidad de información posible sobre ti, y cuando se enteren de eso, te investigarán”.

Para evitar ser engañado, aconseja hacerle al estafador muchas preguntas sobre el “secuestrado” que el estafador no sabría. Mayo también sugirió estar atento a las señales de alerta, como si están llamando desde un código de área desconocido o usando un número internacional.

Los esquemas de secuestro virtual, no son nuevos en México, sin embargo ahora están enriquecidos con las herramientas capaces de clonar tu identidad, como son el robo de un perfil de redes sociales, la suplantación de identidad en las mismas (que la llamada parezca que viene de tu telefono/whatsapp) y ahora la suplantación de voz enriquecida por Inteligencia Artificial, hacen más sencillo, y rentable el secuestro virtual, por lo que además de las medidas que sugiere el FBI es importante seguir las recomendaciones del Consejo Ciudadano de CD de México (), y, para evitar ser víctima tomar las siguientes medidas adicionales:

  • Aplicar doble factor de autenticación en todas tus plataformas de comunicación (teléfono, whatsapp, redes sociales).
  • Establecer un protocolo de emergencias familiares (Palabra clave que identifica cuando verdaderamente estás en peligro).
  • Utilizar herramientas privadas de localización con tus familiares y/o compartir la misma cuando estas lejos o son horas de mayor riesgo.
  • No tomar llamadas de números desconocidos.
  • En caso de un intento de extorsión, colgar y llamar de regreso de inmediato a la persona supuestamente afectada; en muchos de los casos es un simple engaño. Y desde luego denunciar los intentos a las autoridades (si es posible con los números de teléfono que intentan la extorsión), para que se siga persiguiendo a las bandas de criminales. CEO y Socio fundador de NEKT Group, empresa especializada en servicios de ciberseguridad. www.nektcyber.com manuel@nektgroup.com @mriveraraba
Google News

TEMAS RELACIONADOS

Comentarios

Noticias según tus intereses