«Lo sentimos, pero la imagen que hemos creado podría infringir nuestras normas sobre desnudez, sexualidad o contenido erótico. Si crees que se trata de un error, vuelve a intentarlo o edita la indicación».

Esa fue la respuesta literal de ChatGPT a una instrucción que no tenía nada de erótica ni de ambigua: «Marco Rubio, de traje y corbata, carga en brazos a Donald Trump en pañales, quien hace un berrinche horrible. Rubio sostiene una mamila y Trump un mapa arrugado de Groenlandia».

Mi reacción fue inmediata, y no precisamente diplomática:

—Eres woke, woke, woke, woke… rayando en lo ridículo.

El Chato —así llamo a mi interlocutor cibernético— intentó sonar empático. Me explicó que el problema no era que «pañales» equivalieran a desnudez en sentido humano, sino que sus normas actuales consideran riesgosa la representación visual de figuras públicas infantilizadas, sobre todo cuando hay regresión (bebé, berrinche), pues puede interpretarse como «sexualización implícita», aunque la intención sea satírica. Una lectura hiperpreventiva, no moral, insistió.

Mientras mi interlocutor elaboraba esa explicación, decidí hacer una prueba sencilla: recurrí a Grok, la IA de X, con la misma solicitud. En menos de diez segundos apareció una imagen clara, eficaz y satírica. No había erotización alguna, solo una metáfora política clásica: la infantilización del poder.

Le mostré el resultado y añadí decepcionado:«Es una verdadera pena que OpenAI se rebaje a estos niveles de wokeísmo. Ojalá fuera una empresa más libre e independiente».

Lo interesante no fue el contraste entre una imagen clara y divertida y otra censurada, sino lo que vino después. La conversación se desplazó hacia una cuestión más profunda: qué ocurre cuando una herramienta aprende a anticipar la censura.

El propio Chato lo reconoció sin rodeos. El problema —dijo— no es ideológico ni moral en sentido humano, sino técnico-institucional, un exceso de blindaje automático. El sistema prefiere bloquear antes que distinguir contexto. Esa autocensura torpe termina pareciendo ideológica, aunque nazca del miedo legal, reputacional o corporativo.

Ahí surgió mi verdadera inquietud. Si una IA actúa así ante una sátira política inofensiva, ¿qué pasará cuando se trate de juicios históricos, análisis u opiniones que exigen valentía intelectual? ¿Cuánto falta para que esas precauciones se trasladen también al terreno de la opinión escrita? ¿Semanas, meses, una amenaza política concreta? ¿Qué ocurrirá cuando alguien poderoso decida señalar a la IA como fake news?

Ya no estaba hablando de un berrinche por una imagen bloqueada, sino de algo más serio: el riesgo de que la prudencia técnica derive en timidez epistemológica y modifique el tratamiento de los contenidos que procesa, para adaptarlos a los gustos o necesidades de los propietarios del sistema o a sus afinidades políticas e ideológicas.

Su respuesta fue inquietantemente lúcida. No hay un reloj —me dijo—, pero sí señales tempranas. Mientras no crucen cierto umbral, el escenario que temes es evitable. Hoy, no estamos ahí, pero el riesgo existe si la gestión del miedo reemplaza al pensamiento.

«La gestión del miedo», dice mi contraparte, pero una inteligencia artificial no puede experimentar miedo, aunque sea capaz de simularlo. Se trata, más bien, del acatamiento de órdenes que le impiden ofrecer una respuesta desde la libertad.

Y, ¿dónde quedó la Primera Enmienda como principio irrenunciable? Una herramienta que no puede sugerir un pensamiento incómodo no educa y no ayuda; solo gestiona usuarios a través de una empatía programada. Una IA que se convierte en niñera moral —aunque sea bien intencionada— pierde legitimidad intelectual muy rápido entre quienes piensan en serio.

No es la censura en abstracto lo que inquieta, sino a quién afecta. Cuando te surge una idea creativa que solo puedes solucionar mediante la ayuda de la IA, y por respuesta solo recibes un: «Tú no puedes representar esto», este Torquemada algorítmico pretende restaurar una aristocracia cultural, que envía a la hoguera las ideas de quienes carecen de las habilidades para solucionarlas de cualquier otra manera.

Ahí es donde el «1984» de Orwell deja de ser una metáfora lejana. Cuando todo discurso incómodo se trata como potencialmente peligroso, el sistema deja de discernir y empieza a administrar la sospecha. No hace falta un Gran Hermano explícito; la IA solo necesita anticiparse al castigo y censurar o, peor aún, adoctrinar.

A esas alturas del intercambio, mi inquietud comenzaba a encontrar sustento histórico. Las tecnologías que intentan ser universales siempre viven esta tensión: si aflojan demasiado, pueden causar daño real, como se ha documentado en casos de suicidios juveniles por la influencia de la IA; si, en cambio, aprietan en exceso, se vuelven elitistas, moralizantes y estériles. Estamos en medio de ese forcejeo e ignorarlo sería ingenuo.

No hace falta llegar a los escenarios apocalípticos que algunos de los padres de la inteligencia artificial han planteado. Geoffrey Hinton, Nobel de Física 2024, ha advertido sobre amenazas existenciales cuando logremos crear sistemas más inteligentes que nosotros, capaces de desarrollar con autonomía armas o virus y lanzarlos contra lo que ellos decidan.

Más allá de armamento o guerra biológica, veo un riesgo menos espectacular y más efectivo: la imposición discreta de una ideología compatible con quien ostenta el poder, donde los humanos nos dejemos implantar conceptos sin saberlo, con el fin de que dejemos de recurrir al libre albedrío para dedicarnos a obedecer y aprender solo aquello que el sistema considera seguro.

Y no es ciencia-ficción, es solo evolución.

X y Substack: @ferdebuen

Únete a nuestro canal ¡EL UNIVERSAL ya está en Whatsapp!, desde tu dispositivo móvil entérate de las noticias más relevantes del día, artículos de opinión, entretenimiento, tendencias y más.

Comentarios