La psicología cognitiva del siglo pasado demostró algo bastante simple: nuestra mente tiene límites. No podemos aprender todo, ni memorizar todo, ni percibir todo, ni atender todo al mismo tiempo. La realidad es mucho más compleja de lo que alcanzamos a procesar y, por eso, más que comprenderla por completo, lo que hacemos es simplificarla. Necesitamos atajos o, dicho de una manera más precisa, heurísticas.

Uno de estos atajos es la humanización (o antropomorfización) de aquello que no es humano. Este mecanismo describe la tendencia a atribuir rasgos como empatía, comprensión o compañerismo a entidades no humanas, como los chatbots de inteligencia artificial. Lo más sencillo sería decir que antropomorfizar es un error en el procesamiento de la información. Y sí. Pero las preguntas importantes son otras: ¿por qué aparece este atajo y qué efectos puede tener?

La respuesta de por qué las personas humanizan los chatbots puede dividirse en razones técnicas y en razones adaptativas. Técnicamente, Ibrahim et al. (2025) proponen una nueva forma de medir científicamente la “humanización” de la inteligencia artificial. En lugar de evaluar respuestas aisladas, desarrollan un método de análisis en múltiples turnos de conversación, identificando 14 comportamientos antropomórficos, como el uso de primera persona, la expresión de estados internos, intenciones o la generación de empatía, entre otros. Lo interesante del estudio es que muestra que las probabilidades de antropomorfizar aparecen en los turnos intermedios de prompteo (intercambio con el modelo); dicho de otra manera, entre más uso, mayor probabilidad de antropomorfización (independiente de lo alfabetizado técnicamente que esté el usuario), porque es una condición del mismo modelo: los LLMs, en su afinación, tienden a antropomorfizarse en turnos avanzados.

Adaptativamente hay más información: de alguna u otra manera, estamos hechos para humanizar los estímulos. Hume, en el siglo XVIII, decía: “hay una tendencia entre la humanidad a concebir a todos los seres como ellos y a transferir a cada objeto esas cualidades”. Tagnin, en 2024, señala: “los humanos tienden a relacionarse mejor con entidades que se les parecen y actúan de manera similar”. Por eso decimos que la computadora ya no quiere “trabajar”, el coche se “cansó”, ChatGPT es mi “amigo”, la IA “me entiende”. Una vez, un estudiante me dijo: “le pregunté a la IA y me entendió perfecto, hasta se preocupó por cómo me sentía”. Bien, las razones de esto tienen que ver con nuestras limitaciones cognitivas y la necesidad de predecir o intentar predecir la incertidumbre y la opacidad de las cajas negras.

Quizás quien mejor ha explicado las razones de la antropomorfización es el filósofo de la mente Daniel Dennett (1987). Aunque no define el concepto de antropomorfización como tal, su propuesta de la actitud intencional tiene muchas claves para entenderlo. La actitud intencional se adopta cuando un sistema, sea un objeto natural, un animal, una máquina o incluso un objeto simple, como un termostato o un carro, es tratado como si tuviera creencias, deseos e intenciones, aunque evidentemente no las posea. Esto implica proyectar sobre dichos sistemas un modelo de racionalidad, con pasos probables de actuación que permiten predecir su comportamiento de manera eficaz; es decir, la actitud intencional surge de la necesidad de predecir en contextos de alta incertidumbre, aunque con altas probabilidades de error (Dennett, 1987). La actitud intencional es más una capacidad derivada de la evolución de la neocorteza y de los procesos cognitivos que una condición de eficiencia de los propios sistemas: es un heurístico, un atajo de generalización que facilita la relacionalidad humana en contextos de alta desconfianza.

¿Cuáles son las consecuencias de la antropomorfización? Bastantes. Por ejemplo, Bassignana et al. (2025) muestran que la antropomorfización puede ser un mecanismo que reproduce y amplifica desigualdades sociales. El estudio indica que los usuarios de menor nivel socioeconómico tienden a interactuar más con la IA como si fuera humana (usando saludos, cortesías o lenguaje más relacional), mientras que los de niveles más altos económicamente la usan de forma más instrumental, abstracta y estratégica. Esto no es trivial: implica que unos grupos están estableciendo una relación más “emocional” con la tecnología, mientras otros la utilizan como herramienta para tareas productivas (trabajo, análisis, escritura avanzada). El problema es que la IA está optimizada para quienes saben usarla como herramienta. Entonces, la antropomorfización puede llevar a un uso menos eficiente, menor aprovechamiento y, en consecuencia, profundizar la brecha digital: quienes “creen” que la máquina entiende la usan peor; quienes la tratan como sistema técnico obtienen más beneficios instrumentales. En ese sentido, antropomorfizar puede reforzar desigualdades en el acceso real al valor de la inteligencia artificial y amplificar las brechas digitales.

Por otro lado, una consecuencia más grave de antropomorfizar, como señala Placani (2024), es la pérdida de evaluación crítica ante estas tecnologías. Cuando creemos que una máquina “entiende” o “decide”, empezamos a tratarla como si fuera una persona: le confiamos más, le damos más datos personales, le permitimos más y la evaluamos menos; le atribuimos intenciones y hasta justificamos sus errores. El problema es que eso nos hace bajar la guardia. En lugar de evaluar críticamente, nos convertimos en personas más permisivas con los modelos.

Al final, el problema no es que la inteligencia artificial “nos engañe”, sino cómo la nombramos. Los modelos de lenguaje no entienden, no sienten, no interpretan: operan mediante cálculos probabilísticos sobre grandes volúmenes de datos, estimando la secuencia más probable de palabras a partir de patrones previos. No hay comprensión, hay correlación estadística; no hay intención, hay optimización matemática y computacional. Por tanto, es necesario alfabetizarnos digitalmente e intentar que nuestras palabras, tan necesarias de pensar, no refuercen una idea falsa: hablar de “entender”, “pensar” o “decidir” no solo es impreciso, sino que distorsiona nuestra relación con la tecnología. Nombrar las cosas no es un detalle menor; es una condición básica para usarlas con propósito y con distancia crítica. La palabra es también un terreno político en disputa.

Referencias

Bassignana, E., Cercas Curry, A., & Hovy, D. (2025). The AI gap: How socioeconomic status affects language technology interactions. arXiv.

Ibrahim, L., Akbulut, C., Elasmar, R., Rastogi, C., Kahng, M., Morris, M. R., McKee, K. R., Rieser, V., Shanahan, M., & Weidinger, L. (2025). Multi-turn evaluation of anthropomorphic behaviours in large language models. arXiv.

Tagnin, D. J. (2024). Cognición corporizada: Una perspectiva post-fenomenológica de la robótica del desarrollo. Hipertextos, 12(22), e091.

Placani, A. (2024). Anthropomorphism in AI: Hype and fallacy. AI and Ethics, 4(3), 691–698.

¡EL UNIVERSAL ya está en Whatsapp!, desde tu dispositivo móvil entérate de las noticias más relevantes del día, artículos de opinión, entretenimiento, tendencias y más.

Comentarios