En 1998, Neil Postman, en una brillante disertación sobre los efectos de los cambios tecnológicos, afirmó que todas las tecnologías a través de la historia han producido efectos positivos y negativos.

En ocasiones, los efectos negativos pueden superar y, por mucho, a los posibles beneficios que determinadas tecnologías pueden reportar a las sociedades.

El deepfake -lo ultrafalso- es una técnica de inteligencia artificial que permite crear videos y audios falsos que parecen reales, la cual abre la puerta al desarrollo de un peligroso neohiperrealismo.

Dos ejemplos inmediatos de imágenes hiperrealistas aparentemente inofensivas: 1.- escenas del supuesto arresto de Donald Trump; 2.- el papa Francisco a la moda.

El deepfake es utilizado en la industria cinematográfica para recrear escenas históricas o mejorar la calidad de los efectos especiales. Ello permite reducir considerablemente los costos y los tiempos de producción.

El deepfake también puede ser utilizado para crear avatares digitales para la atención médica o el sector educativo, proporcionando servicios de manera más eficiente y accesible.

Sin embargo, el deepfake, puede ser utilizado para difundir información engañosa, noticias falsas o videos manipulados de figuras públicas con el deliberado propósito de dañar la reputación de personas, instituciones y marcas, así como la confianza misma en la información.

El deepfake también puede ser utilizado para el acoso en línea y la extorsión.

En la industria pornográfica han proliferado videos de celebridades que nunca realizaron ninguna de las escenas porno en las que aparecen. Las impostaciones son recurrentes.

Desde 2018 es recurrente el empleo de lo ultrafalso en la propaganda sucia.

En 2018 fue publicado en la web un video falso que mostraba al presidente de Estados Unidos, Donald Trump, ofreciendo un discurso en cadena nacional, en el cual anunciaba el inicio de la guerra con Corea del Norte.

Ese video fue deliberadamente creado con el propósito de demostrar la facilidad de engañar a la opinión pública mediante videos deepfake.

En 2019, en un video fue exhibida la presidenta de la Cámara de Representantes de Estados Unidos, Nancy Pelosi (Partido Demócrata), hablando de manera incoherente y tambaleándose.

Ese video fue manipulado para insinuar a Pelosi en aparente estado de ebriedad, cuando en realidad ella es abstemia.

El video se volvió viral en las redes sociodigitales, y generó lamentables tuits de destacados miembros del Partido Republicano; por ejemplo, de Rudy Guliani, entonces alcalde de Nueva York.

YouTube y otras plataformas decidieron retirar el video; sin embargo, Zuckerberg se negó a eliminarlo en Facebook. Tal situación generó profundo malestar en Pelosi y en el Partido Demócrata.

En 2018, durante el desarrollo de las campañas presidenciales en México fueron publicados en varios videos deepfake en las redes sociodigitales, con los cuales se pretendió perjudicar a los principales candidatos.

Contra Andrés Manuel López Obrador (AMLO) fue elaborado un deepfake que incluyó declaraciones en favor de la legalización de las drogas. Ese video fue desmentido y se reveló que era falso.

Contra Ricardo Anaya fue elaborado un video en el cual aparecía bailando y cantando una canción de reggaetón. El video también fue desmentido.

Contra José Antonio Meade circuló un video falso en las redes sociodigitales. En un discurso supuestamente daba su apoyo a Ricardo Anaya. El video fue desmentido.

También en 2018, en las elecciones presidenciales en Brasil, fueron publicados en las redes virtuales varios videos deepfake; por ejemplo, uno de Jair Bolsonaro hablando de manera ofensiva y racista.

El imaginario ciberdelictivo no se limita a la explotación de imágenes. En 2019, The Wall Street Journal informó sobre las operaciones de una nueva generación de social engineeers -práctica ilegítima de obtener información confidencial a través de la manipulación de usuarios legítimos-.

Un grupo de ciberdelincuentes utilizaron un software de IA para reproducir la voz de un CEO. De esa manera lograron extraer unos 220.000 euros de una empresa británica.

A lo largo y ancho del territorio nacional, en nuestros penales, al amparo de la autoridad o con su abierta complicidad y protección, los inhibidores de señales de Wi-Fi son eliminados para permitir que los reclusos se dediquen al lucrativo negocio de la extorsión telefónica.

Con deepfake los delincuentes podrán imitar con inteligencia artificial (IA) la voz de una persona y afectar el patrimonio y la estabilidad de una familia o de una empresa.

El tema es complejo. En Sillicon Valley un gran número de firmas se opone a la posibilidad de regular todo lo relativo a la Inteligencia Artificial.

En México, es indispensable hacerlo. No podemos perder más tiempo.

Google News

TEMAS RELACIONADOS