Por Itzel Mayans Hermida
Vivimos una coyuntura en la que el desarrollo de la Inteligencia Artificial (IA) y de su capacidad para substituir las habilidades del ser humano van en incremento. Asimismo, también lo está su capacidad para hacer indistinguible la verdad del error. Expertos y expertas estiman que en un plazo de tiempo muy corto – quizá en un año o dos, máximo– las personas no podremos distinguir la autenticidad de un video hecho utilizando IA. Aunque su uso ha reportado algunos beneficios, mayor eficiencia en la realización de procesos mecánicos y repetitivos, reducciones de costos para las empresas, sistematización de una cantidad considerable de información, entre otras, todavía se vislumbran más áreas de oportunidad en su uso que beneficios totales.
Actualmente, ya se utiliza esta tecnología para generar confusión y fraude cibernético; sin embargo, sus usos potenciales serán en poco tiempo impredecibles y cualquier ciudadana podría ser víctima de suplantación de identidad.
Ante estos riesgos, la filósofa y psicóloga estadounidense Shoshana Zuboff para una entrevista con el diario El País, menciona que hay muy pocas cosas, entre las que hacemos cotidianamente, que no contribuyan a lo que denomina el capitalismo de la vigilancia. Con ello, Zuboff se refiere a la estrategia que han implementado los grandes oligarcas de las empresas tecnológicas, como Google, para guardar y sistematizar nuestra información personal cada vez que navegamos en internet y, posteriormente, vender dicha información a otras empresas que lucran con nuestras búsquedas, preferencias y sesgos.
Si bien los mecanismos con los que funciona el capitalismo de la vigilancia no son completamente nuevos, ya Google los utiliza desde hace varios años, la novedad es que la IA, a través del Chat GPT y del uso de nuevas tecnologías para utilizar las imágenes de las personas en videos, fotos o mensajes de voz imitando su físico y locución, sí abren un nuevo escenario de riesgo global para todas las personas promedio y nos somete a una nueva era del riesgo mundial, parafraseando al sociólogo Ulrich Beck quien, desde el año 1992, escribió el famoso libro La sociedad del riesgo global ante los riesgos sin precedentes que el uso de las nuevas tecnologías conllevaban, desde entonces, para las sociedades contemporáneas.
La falta de regulación oportuna y la incapacidad para la deliberación pública en la que podamos ponernos de acuerdo sobre qué representa un riesgo que debamos de tomar seriamente en cuenta, contribuyen aún más a la desprotección de los ciudadanos promedio y, con ello, de las democracias contemporáneas. Solamente la Unión Europea ha tomado este reto con seriedad, aunque todavía falta un gran camino por recorrer antes de que sus leyes puedan estar a la altura de los retos actuales.
Por su lado, la filósofa mexicana Clarissa Véliz, ha afirmado que nuestros sistemas democráticos están en riesgo, pues “la democracia depende de tener información fiable y de que los ciudadanos estén relativamente bien informados (…) y, si tienes una máquina cuya especialidad es inventarse historias que son plausibles y verosímiles, pero no verdad, y facilita la generación de estos contenidos a escala, pues evidentemente hay un problema de desinformación".
Asimismo, debemos de insistir, desde diferentes frentes, en la importancia que tiene el que se actualice la normatividad en la protección de datos y de que se pueda evidenciar de qué manera el capitalismo de la vigilancia atenta contra nuestro derecho a la privacidad. La Declaración Universal de los Derechos Humanos, en su artículo 12, menciona que el contenido de este derecho es el siguiente: “Nadie debe de estar sujeto a interferencia arbitraria en su privacidad, familia, hogar o en su correspondencia, ni ser atacada en su honor o reputación. Todo mundo tiene el derecho a la protección de la ley frente a posibles interferencias o ataques”.
Y si Zuboff tiene razón sobre el hecho de que el capitalismo de la vigilancia concentra no solamente nuestras búsquedas y preferencias en la red, sino que también es capaz de captar fragmentos de nuestras voces, imágenes o indicios de nuestra vida psicológica que puedan ser vendidas para predecir nuestros gustos o comportamientos públicos y privados futuros, entonces claramente el derecho a la privacidad está siendo violado con consecuencias impredecibles para las y los usuarios de las nuevas tecnologías.
Por ello, considero que implementar estrategias de autocuidado, implica preservar lo más posible nuestra privacidad, estar conscientes de que los resultados de nuestras búsquedas en Chat GPT no necesariamente corresponden a la realidad, que las nuevas virtudes morales que deberemos de desarrollar las personas, antes de enfrentarnos a la ira o indignación al ver un video que parezca plausible pero falso, son la mesura, la duda y nuestra capacidad para intentar distinguir la verdad de la falsedad.
A su vez, la implementación de estrategias de cuidado colectivo es también imprescindible. Entre ellas, nuestra capacidad de diseñar estrategias colectivas que nos permitan distinguir la verdad del error y de la manipulación; poder conservar nuestra capacidad de criticidad sin ceder a la tentación de recurrir a Chat GPT para consultar cualquier dato que, en otros tiempos, aclararíamos con la búsqueda en un diccionario o enciclopedia; nuestra resistencia a que el debate público sobre temas fundamentales lo marquen los algoritmos, así como promover debates genuinos sobre problemas reales al margen de las prioridades económicas de grupos oportunistas, filtradas a través de la tecnología.
Asimismo, y como señaló famosamente Sir Francis Bacon en su obra Meditationes Sacrae de 1597, “el conocimiento en sí mismo es poder”; por ello, es necesario luchar contra la desinformación social no solamente sobre los hechos y fenómenos cotidianos más relevantes, sino también sobre cómo opera el capitalismo de la vigilancia, cómo las grandes empresas tecnológicas esconden la evidencia de los usos que les dan a nuestra información privada y la necesidad de empujar agendas que protejan y defiendan a las personas usuarias de la tecnología. Sabemos que la Inteligencia Artificial (IA) con mucha probabilidad llegó para quedarse; sin embargo, hay que entablar debates públicos sobre sus riesgos, implementar leyes acordes a los nuevos riesgos que enfrentamos y poner obstáculos a quienes quieren lucrar con nuestra información personal.
Ahora más que nunca, los derechos tanto a la privacidad como a la información deben de ser recuperados de los tratados de derechos humanos para ponerlos en práctica en la protección de las personas y sus esferas de privacidad e intimidad.
El año 2026 será un año de retos nuevos sin precedentes en temas de tecnología y AI. En pocas palabras, debemos de estar conscientes de que enfrentamos riesgos considerables para el mantenimiento de nuestras democracias, nuestra capacidad para el ejercicio del pasamiento crítico y autónomo y el reto de mantener y conservar nuestros derechos tanto a la información como a la privacidad.
Referencias
- Declaración Universal de los Derechos Humanos. Recuperada de:
Declaración Universal de los Derechos Humanos. Recuperada de: https://www.un.org/es/about-us/universal-declaration-of-human-rights. (12 de enero de 2026)
- Diario Público. “Carissa Véliz, filósofa en Oxford: "La IA está diseñada para inventar contenidos verosímiles, no para buscar la verdad" Consultado en:
https://www.publico.es/ciencias/carissa-veliz-filosofa-oxford-ia-disenada-inventar-contenidos-verosimiles-buscar-verdad.html (19 de diciembre de 2025).
- El País. “Shoshana Zuboff, philosopher: ‘AI is surveillance capitalism continuing to evolve and expand”. Consultado de:
*Una versión de este artículo fue publicada anteriormente en el portal feminista “La Cadera de Eva”.
Itzel Mayans Hermida es Profesora – Investigadora Titular en el Instituto Mora, Doctora en Filosofía política por la UNAM.

