Los pueden hacer bailar a la reina de Inglaterra Isabel II, o revivir a la princesa Leia en Star Wars. Son videos creados con en los que un programa reemplaza la cara de una persona por la de otra, y son tan verosímiles que es difícil darse cuenta que son mentira.

Las imágenes manipuladas se generan con algoritmos que "leen" los rostros faciales de decenas de fotografías y videos tomados desde distintos ángulos. Con esa información, el programa consigue recrear la voz y la imagen de una persona que simula sus gesticulaciones sobre la cara de otra.

@fazebetito

la reina Isabel ll bailando una cumbia#humor

Resucitar a famosos fallecidos

Los mejores "softwares" utilizan una gran cantidad de recursos audiovisuales y cada vez que crean un "deepfake" están mejorando sus algoritmos para hacerlo mejor a la próxima, gracias al "machine learning", métodos computacionales, y estadísticos que permiten a los ordenadores aprender tareas basadas en datos existentes.

Lee también: 

El uso de los "deepfakes" no tiene que ser intrínsecamente malo, señaló Idoia Salazar, presidenta y cofundadora del Observatorio del Impacto Ético y Social de la Inteligencia Artificial (OdiseIA).

Pueden resucitar a famosos fallecidos, como hizo la cervecera Cruzcampo, en un anuncio donde revivió a la cantante española Lola Flores, durante unos minutos, o "ahorrar presupuestos en películas que puedan prescindir de actores reales para las secuencias más peligrosas", añadió la experta.

Arma peligrosa en las manos equivocadas

Pero en las manos equivocadas, se convertirían en una herramienta para desinformar de una forma mucho más sofisticada que las mentiras falsas. Pueden poner palabras en la boca de un presidente que inviten al desorden público, o desprestigiar a activistas haciéndoles aparecer en falsos videos pornográficos.

De hecho, el término "deepfake" nació en 2017, por un usuario de la plataforma "Reddit", con esa terminación subió videos de los rostros de famosas como Taylor Swift o Gal Gadot en el cuerpo de actrices porno.

Para Salazar, "el nivel de alarma ahora mismo debe de ser elevado", porque en cuanto a la desinformación, "los deepfakes pueden ser tremendamente peligrosos".

Lee también: 

Cuando una persona ve algo por escrito, añade Salazar, puede intuir por la tipografía que es un contenido modificado, pero cuando una persona ve una imagen que se mueve y se expresa con naturalidad "se lo va a creer casi seguro".

La dificultad de discernir entre lo falso y lo verdadero

Por otra parte, la periodista Claire Wardle, cofundadora y directora de First Draft, organización líder en el combate a la desinformación, advirtió en un artículo en "The New York Times" que el "alarmismo" en torno a los "deepfakes" puede ser aprovechado por políticos para refutar que aparecieron en un video cometiendo un crimen o un hecho reprobable.

Por ejemplo, el expresidente de Estados Unidos (EU), Donald Trump, puso en duda que fue él quien apareció en un video filtrado antes de las elecciones presidenciales de 2016 en el que se le vio haciendo comentarios groseros sobre las mujeres.

Precisamente esa línea brumosa entre la verdad y la ficción catalizó un intento de golpe de estado en Gabón hace casi tres años. En 2018, en el país hacía meses que no se veía al presidente Ali Bongo lo que había espoleado rumores sobre su salud.

Cuando después de un largo tiempo reapareció en un video para dar el discurso de Año Nuevo, la rigidez y poca naturalidad de sus gestos despertaron sospechas de que era un "deepfake".

Las dudas fueron un argumento más para sostener que el presidente era incapaz de gobernar con mensajes que incluso decían que estaba muerto. El Ejército intentó dar un golpe de Estado una semana después.

"The Washington Post" investigó el video y consultó con expertos en inteligencia artificial que señalaron que es muy probable que fuera cierto y que la gestualidad artificial se debiera a secuelas de un derrame cerebral.

Un crecimiento del 900%

La empresa emergente Sentinel identificó desde 2019 un crecimiento del 900% de los "deepfakes", cuando se pasó de unas 14 mil 500 a 145 mil, la mayoría fueron compartidos en redes sociales y tuvieron cerca de 6 mil millones de visualizaciones.

Lee también:

El crecimiento acelerado se debe a que cada vez es más fácil crearlas. La agencia de noticas EFE analizó un "deepfake" de la activista climática Greta Thunberg en el que aparece desnuda. Las imágenes manipuladas habían sido creadas con una aplicación para el móvil, según confesaba el autor anónimo en la descripción del video.

Mientras los países siguen debatiendo su regulación, los expertos insisten en la importancia de la cibereducación y el desarrollo de programas que los identifiquen.

El experto en ciberseguridad Juan David Cardona compartió algunos consejos que pueden ayudar a reconocerlos, como fijarse en la gesticulación de la persona que aparece en el video, ya que en los "deepfakes", siempre habrá retrasos en los fotogramas o en la voz.

También puede haber movimientos en los que se desplace la imagen sobrepuesta y hay que fijarse si coincide el tono de piel entre la cara y el cuerpo.

Por último, aconseja mirar si la fuente de donde proviene el video es conocida y confiable. Si no lo es, buscar si aparece en otras fuentes respetables como periódicos.

jgt/melc

Google News

TEMAS RELACIONADOS

Noticias según tus intereses