El año pasado, dos científicos de la empresa de seguridad ZeroFOX realizaron un experimento para ver quién era capaz de hacer que más usuarios de Twitter hicieran clic en enlaces maliciosos, el ejercicio involucró tanto a humanos como a bots.

Para lograrlo, los investigadores enseñaron a una Inteligencia Artificial cómo estudiar el comportamiento de los usuarios de redes sociales, para después diseñar e implementar su propio cebo de phishing.

En las pruebas, el hacker artificial fue sustancialmente mejor que sus competidores humanos, la composición y la distribución de los tuits obtuvo más víctimas de phishing que los humanos, y con una tasa de conversión sustancialmente mejor.

La IA, llamado SNAP_R, envió los tuits simulados a más de 800 usuarios a un ritmo de 6.75 tuits por minuto, atrayendo a 275 víctimas. Por el contrario, Forbes escritor de Thomas Fox-Brewster, quien participó en el experimento, sólo fue capaz de obtener mil 75 tuits por minuto, y atrajo tan sólo 49 usuarios.

El ejercicio demostró que los hackers ya están en condiciones de utilizar una IA para sus fines. Y de hecho, es probable que estén utilizando ya que, aunque es difícil de probar. En julio, en el Sombrero Negro EE.UU. 2017 , cientos de los principales expertos de seguridad cibernética se reunieron en Las Vegas para discutir esta cuestión y otras amenazas que se ciernen plantean las tecnologías emergentes. En una encuesta realizada durante el Cylance confabulación , se preguntó a los asistentes si los hackers criminales utilizarán AI con fines ofensivos en el próximo año, a la que el 62 por ciento respondió afirmativamente.

Google News

Noticias según tus intereses