[Publicidad]
La inteligencia artificial (IA) vive uno de sus momentos más vertiginosos. La generación de imágenes, audio y video ha alcanzado niveles de realismo que hace apenas una década parecían imposibles. Hoy, cualquier persona con un teléfono inteligente o computadora puede producir contenido hiperrealista en cuestión de minutos.
Este avance tecnológico, sin embargo, no ocurre en el vacío. A la par de sus aplicaciones en medicina, educación, ingeniería o en el mundo del entretenimiento, también ha abierto nuevas formas de violencia digital que afectan directamente la identidad y la imagen de las personas.
Los llamados deepfakes (contenidos falsos generados con IA que imitan rostros, voces o cuerpos) se han convertido en uno de los ejemplos más visibles de este fenómeno. Su capacidad para replicar con precisión rasgos humanos plantea preguntas urgentes sobre confianza, consentimiento y seguridad en entornos digitales.
Desde el ámbito académico, la doctora Zobeida Guzmán Zavaleta, especialista en IA de la Universidad de las Américas Puebla (UDLAP), advierte que este mismo desarrollo que impulsa la innovación también habilita usos maliciosos.

Leer también: Cómo cambiar de número en WhatsApp sin perder tus chats y contactos
Señala que lo que antes requería de un conocimiento especializado y de grandes recursos, hoy está al alcance de casi cualquier usuario. Las plataformas abiertas, aplicaciones gratuitas y modelos cada vez más intuitivos han reducido las barreras técnicas para crear contenido.
Pero el problema no es únicamente tecnológico, también es social. La IA amplifica prácticas existentes como la violencia, manipulación, difamación o acoso, pero lo hace con una escala y precisión inéditas.
En el terreno de la seguridad digital, especialistas advierten que esta evolución representa un punto de inflexión.
“Ahora significa cuestionar si ese video o audio de tu amigo o jefe es real, incluso si suena o se ve exactamente como ellos”, señala en un artículo Alexis Obeng, de IBM X-Force Cyber Range, para referirse al uso de IA en fraudes y engaños.
En este contexto, la violencia digital adopta nuevas formas, más sofisticadas y difíciles de detectar. La tecnología que permite innovar también puede ser utilizada para vulnerar derechos, especialmente cuando se combina con dinámicas de género y exposición pública.
Entender cómo funcionan estas herramientas, quiénes son las personas más
vulnerables y qué se puede hacer para reducir riesgos se vuelve fundamental en un entorno donde la imagen, ya sea propia o ajena, puede ser manipulada con una facilidad sin precedentes.
De la innovación al riesgo cotidiano
El desarrollo de los deepfakes no es reciente, pero su aceleración sí lo es. Lo que inició hace más de 10 años como experimento académico, hoy es una tecnología accesible, masiva y cada vez más sofisticada.
“Esta tecnología empezó a desarrollarse desde hace más de una década. En los primeros resultados todavía se notaba muchísimo que estaban mal hechos”, explica en entrevista la doctora Zobeida Guzmán Zavaleta, directora general de Doctorados y titular del programa STEM de la Universidad de las Américas Puebla (UDLAP).
Aquellos primeros modelos basados en autocodificadores (un tipo de red neuronal artificial diseñada para aprender a comprimir datos en una representación más pequeña y eficiente) permitían mapear un rostro y reconstruirlo con variaciones, pero con resultados aún imperfectos.
El salto llegó con las redes generativas adversarias (GAN), un sistema en el que dos redes neuronales compiten entre sí: una genera contenido falso y la otra evalúa su autenticidad. Ese “juego de ganar o perder”, como lo describe la experta, hace que el resultado sea cada vez más realista.
“Un modelo no sabe nada, y le pregunta al que sí sabe: ‘¿Esta imagen es la de esta persona?’ Y así va aprendiendo”, explica Guzmán Zavaleta, experta en aprendizaje de máquina y aprendizaje profundo. El resultado es un sistema que afina progresivamente todos los rasgos hasta lograr simulaciones convincentes.
Más recientemente, los modelos de difusión y los transformadores (una base de herramientas como los modelos generativos actuales) han llevado esta capacidad a otro nivel. Ya no se trata solo de manipular imágenes existentes, sino de generar contenido desde cero a partir de texto.
Las figuras públicas han sido históricamente las primeras víctimas de los deepfakes: “¿De quién tenemos mucha información disponible? De las celebridades, porque su imagen está en todos lados”, dice la experta. La abundancia de fotos y videos facilita el entrenamiento de los modelos.

Casos como los de Scarlett Johansson, Emma Watson, Taylor Swift, Paris Hilton o la influencer mexicana Alana Flores ilustran este fenómeno. Sus rostros han sido utilizados para generar contenido sexual falso sin consentimiento, evidenciando cómo la disponibilidad de datos se convierte en vulnerabilidad.
A la par, la detección es más compleja, porque los errores visibles (dedos extra o proporciones incorrectas) son menos frecuentes, reconoce Guzmán Zavaleta.
Y además estas herramientas se volvieron más accesibles: “Llegó un punto en el empezaron a salir aplicaciones libres de uso. Y ahora cualquier persona las puede utilizar sin saber casi nada”, advierte.
Violencia estructural amplificada
Aunque cualquier persona puede ser víctima, los datos muestran que la violencia digital, sobre todo la de tipo sexual, afecta de forma desproporcionada a mujeres.
“La violencia digital son todas las acciones que se ejercen, contra cualquier internauta, pero específicamente contra las mujeres, con el fin de agredir, humillar y afectar su libertad en los espacios digitales”, explica en entrevista la doctora Luz María Garay Cruz, profesora investigadora de la Universidad Pedagógica Nacional (UPN).
Esta violencia, dice, no es nueva, ya que es la extensión de prácticas estructurales, como el machismo y la misoginia.
Las cifras lo confirman. De acuerdo con información de FactChekNI, el 98% de todos los deepfakes son pornográficos; el 99% de esos deepfakes presentan a mujeres; y entre 2019 y 2023, los deepfakes aumentaron un 550%. Esto no es un mero accidente tecnológico, sino una reproducción de desigualdades existentes.
“Es un problema sin duda de corte cultural y social. [...] Los que hacen este tipo de modificaciones en las imágenes de mujeres utilizando la IA son hombres y hay muchos ejemplos”, afirma Garay Cruz, experta en educación y alfabetización digital.
Como el caso del mexicano Diego "N", exalumno del Instituto Politécnico Nacional (IPN), que fue sentenciado el año pasado a cinco años privado de la libertad y a pagar una multa de más de 100 mil pesos por el delito de trata de personas en la modalidad de pornografía infantil.
En octubre de 2023, estudiantes de Mercadotecnia Digital de la Escuela Superior de Comercio y Administración (ESCA) del IPN reportaron que Diego tenía un iPad con fotografías sexuales manipuladas con IA de decenas de mujeres que vendía como contenido pornográfico en grupos de Telegram.
Otro caso es el de William Hamish Yeates, australiano de 19 años, quien en abril de este año fue declarado culpable de crear pornografía deepfake, convirtiéndose en la primera persona en Australia en ser acusada bajo una nueva ley nacional que penaliza la manipulación de imágenes con fines sexuales.
Es decir, la tecnología facilita la agresión, pero no la origina. Lo que hace es amplificarla, hacerla más rápida y más visible.

Bajo este contexto, a decir de Garay Cruz, la viralidad es un factor crítico: “Un acto de violencia contra alguna mujer pueden subirlo a redes y volverse viral. La viralidad es un tema que no debemos olvidar”, explica la especialista. Porque en el entorno digital, los contenidos permanecen, se replican y reaparecen incluso años después.
Y a esto se suma el anonimato: “Desde el anonimato se articulan muchos ataques”, señala Garay Cruz, lo que reduce de forma significativa la percepción de las consecuencias y facilita la agresión, porque los agresores se sienten protegidos.
Por su parte, la maestra Marcela Hernández Orapa, integrante de la Red Latinoamericana de Defensoras Digitales, lo plantea en términos estructurales.
“Las personas en mayor vulnerabilidad en el ámbito digital son las mismas que están en mayor vulnerabilidad en otros espacios”, afirma en conferencia.
En este contexto, los deepfakes sexuales son una forma agresiva de violencia, porque no solo manipulan la imagen, también afectan la reputación y la relación de las personas con su propio cuerpo.
Las consecuencias de la violencia digital son tangibles. Garay Cruz habla de efectos psicológicos como ansiedad y depresión, e incluso abandono escolar y suicidio: “La violencia digital es real, porque atraviesa el cuerpo de las personas”, afirma la tambien profesora de la Facultad de Ciencias Políticas y Sociales de la UNAM.
Cómo reducir riesgos en un entorno incierto
Frente a este panorama, la respuesta no puede ser únicamente tecnológica. Las especialistas coinciden en que además se requiere de regulación, responsabilidad de las plataformas y alfabetización digital.
Garay Cruz insiste en la necesidad de desarrollar pensamiento crítico: “¿Por qué le doy like a contenido donde están humillando a una persona?”, plantea. El consumo digital también reproduce o frena la violencia.
Otro frente clave es la regulación. Las plataformas tienen los medios para rastrear, eliminar contenido y detectar patrones, pero su respuesta aún es limitada: “Tienen la capacidad tecnológica, pero por alguna razón no siempre actúan de forma preventiva”, señala Garay Cruz.
Y finalmente, la educación digital aparece como uno de los ejes más importantes. No solo para protegerse, sino para entender el entorno. Como resume Hernández Orapa, el reto no es solo adaptarse a la tecnología, sino cuestionar cómo está diseñada y quién la controla.
Porque en la era de la IA, el problema no es únicamente que una imagen pueda estar manipulada, sino que cada vez es más difícil demostrar que no es real.
Leer también: 10 mejores universidades para estudiar odontología
Recibe todos los viernes Hello Weekend, nuestro newsletter con lo último en gastronomía, viajes, tecnología, autos, moda y belleza. Suscríbete aquí: https://www.eluniversal.com.mx/newsletters
Noticias según tus intereses
[Publicidad]












