Hace algunos días, en medio de un episodio de alta tensión pública vinculado con el abatimiento de una figura del crimen organizado, comenzaron a circular en redes sociales imágenes inquietantes: supuestas fotografías de operativos, avenidas en llamas y bloqueos simultáneos. Todo parecía real. Sin embargo, muchas de esas escenas nunca existieron. Habían sido creadas, manipuladas o sacadas de contexto. Y aun así, cumplieron su cometido: sembrar miedo.
La inteligencia artificial es, sin duda, una de las herramientas más poderosas de nuestro tiempo. Ha permitido avances impensables en múltiples ámbitos. Pero esa misma capacidad para generar imágenes, audios y videos hiperrealistas ha abierto la puerta a la fabricación masiva de contenidos falsos que pueden difundirse en segundos y alcanzar a millones de personas.
La circulación de imágenes manipuladas y versiones no confirmadas fue documentada por medios internacionales como The New York Times y Reuters, que dieron cuenta del impacto global de la desinformación en contextos de crisis. El problema no es solo que el contenido sea falso, sino lo que produce: confusión, pánico y decisiones irracionales.
No es un fenómeno aislado ni exclusivo de México. Tras los ataques registrados recientemente en Dubái, también circularon videos e imágenes sin fuente verificable que advertían sobre supuestos riesgos adicionales. En cuestión de horas, la desinformación se mezcló con la cobertura real y amplificó la incertidumbre.
La inteligencia artificial ha reducido el costo y el tiempo para fabricar una mentira convincente. Ya no se requiere un montaje complejo: basta una instrucción para producir imágenes verosímiles, audios que imitan voces o videos que simulan escenas inexistentes. En contextos de alta tensión social o de seguridad, esa capacidad puede convertirse en detonador. ¿Qué hacer frente a este panorama?
El primer llamado es personal: hacer una pausa antes de compartir. La desinformación se propaga porque alguien la reenvía. En momentos de incertidumbre, detenernos, dudar y verificar puede romper la cadena de la mentira. La responsabilidad digital empieza con un acto simple: no amplificar lo que no sabemos si es cierto.
El segundo llamado es social: no ser espectadores pasivos. Así como la desinformación se expande en red, también puede frenarse en red. Reportar contenidos falsos, advertir a familiares y amistades y privilegiar fuentes confiables ayuda a contener el daño.
El tercer llamado es institucional: construir reglas y capacidades frente a esta nueva realidad. La inteligencia artificial ha cambiado la velocidad y la escala de la desinformación, y eso exige respuestas proporcionales de autoridades, plataformas y medios.
Finalmente, el cuarto llamado es de aprendizaje: observar lo que el mundo ya está haciendo ante este desafío. La Unión Europea, por ejemplo, ha impulsado reglas para que las plataformas actúen frente a este tipo de riesgos.
Frente a la desinformación generada con inteligencia artificial, la diferencia no la marcará la tecnología, sino nuestras decisiones. La innovación seguirá avanzando. La pregunta es si nuestra responsabilidad avanzará al mismo ritmo. Con ello, hagamos lo que nos corresponde.
Especialista en protección de datos, ciberseguridad y gobernanza de IA
X: @lauraenriquezr
Instagram: @laura.enriquezr
Tiktok: @lauraenriquezr
Únete a nuestro canal ¡EL UNIVERSAL ya está en Whatsapp!, desde tu dispositivo móvil entérate de las noticias más relevantes del día, artículos de opinión, entretenimiento, tendencias y más.

