El filósofo italiano Franco Berardi, Bifo, ofrece un diagnóstico emocional de la sociedad postpandemia: vivimos un empobrecimiento afectivo generalizado. Hay menos vínculos significativos, menos cortesía y menos amabilidad. Ya no predominan las relaciones con lógicas de conjunción (de encuentro y entrelazamiento), sino de simple conexión. Todo ocurre enmarcado en la digitalización de la vida social: una existencia que transcurre de pantalla en pantalla, con cada vez menos espacios para el intercambio profundo de palabras.
Las posturas de Bifo parecen pesimistas, dignas de filosofías críticas. No obstante, hay cada vez más datos que sustentan sus premisas. Un estudio de Raluca Iuliana Georgescu y Dumitru Alexandru Bodislav, publicado en mayo de 2025 en MDPI (Multidisciplinary Digital Publishing Institute), muestra cómo las medidas de distanciamiento en la pandemia han impactado la cohesión social, las relaciones interpersonales y los comportamientos, reforzando conductas de evitación, aumentando la ansiedad social y alterando la dinámica de la confianza, su conclusión es que todas estas medidas de prevención impactaron a largo plazo las dinámicas psicosociales, dejando un legado psicológico de desconfianza ante los otros. Otro estudio de Shisei Tei y Junya Fujino de 2022 publicado en Nature muestra que, durante la pandemia, el miedo y la ansiedad no solo afectaron la salud mental, sino también la forma en que las personas se relacionan en su vida cotidiana. Las emociones negativas intensificaron sesgos (de género, clase social, nacionalidad) tensiones y conflictos entre grupos, debilitando la confianza y favoreciendo dinámicas de evitación haciendo que los vínculos sociales se volvieron más frágiles, atravesados por la ambivalencia entre la necesidad de conexión y la percepción del otro como potencial riesgo. La pandemia nos devolvió a la idea hobbesiana de homo homini lupus (el hombre es un lobo para el hombre)
Ahora, en este contexto, emergió la masificación de ChatGPT 3.5 en 2022. Si bien la historia de la IA, los modelos grandes de lenguaje y el procesamiento de lenguaje natural (PLN) vienen del siglo pasado, lo que conocemos hoy es un producto que se instala en la sociedad pospandémica. De tal manera, muchos adolescentes y adultos jóvenes, en diferentes partes del mundo, utilizan estos modelos para la gestión emocional, y la pregunta es: ¿por qué? Una respuesta ya la trabajé en otro artículo sobre la adulación (https://www.eluniversal.com.mx/opinion/juan-pablo-duque/la-inteligencia-artificial-manipula-claves-psicologicas-de-la-adulacion-digital/), pero ahora me centraré en otros elementos. Marc Brackett, investigador de Yale en temas de inteligencia emocional, señala que uno de los secretos de por qué estas herramientas se usan para la gestión emocional es que “permiten sentir”, y esto es realmente raro de encontrar, más aún después de la pandemia. En sus estudios, solo el 35% de las personas permite al otro sentir. Permitir sentir significa construir un intercambio donde la emoción del otro no sea castigada, problematizada, acelerada, ni entorpecida; es un “siente”, “está bien”. Los LLM no lo hacen porque sean empáticos, sino por su encuadre (refinamiento) adulador y reforzador, en el que casi cualquier cosa que se comparta recibe una respuesta favorable. El permiso para sentir es una estrategia profundamente poderosa. Recuerdo, por ejemplo, la sensación de estar cerca de mi abuela (mujer dura con sus hijas e hijos, pero suave con sus nietas y nietos): con ella, sentir no era un problema. Siempre me decía que estaba bien, que el enojo, la tristeza o la felicidad podían habitarse sin culpa. Era, en sí misma, un espacio donde la emoción no se contenía ni se corregía, sino que simplemente cerca de ella las emociones tomaban forma. Hoy, en este entorno pospandémico, ocurre lo contrario: la sensibilidad tiende a castigarse o a diluirse en una apariencia efímera, saturada de palabrerías de coaching y lugares comunes. Bifo diría que no es solo un cambio circunstancial, sino una pérdida: hemos dejado de sentir con profundidad al otro.
En el estudio Symmetries and Asymmetries between Attitudes and Interaction in Relation to the Emotional Uses of LLMs, realizado en el CEIICH de la UNAM por mi colega Alejandro Santes y yo, con una muestra mexicana, encontramos que existe una distancia clara entre lo que los jóvenes dicen sobre la inteligencia artificial y lo que realmente hacen con ella. Aunque predominan actitudes conservadoras frente a sus usos emocionales, la evidencia cualitativa muestra otra realidad: hay usos emocionales que se van intensificando.
Primero, la IA aparece como una herramienta puntual para pedir consejo en momentos específicos. Después, se convierte en un espacio de validación, donde los usuarios buscan confirmar lo que sienten o piensan en intercambios multimodales (fotos, capturas de pantalla, etc.). Finalmente, en un tercer nivel, emergen formas de antropomorfización en las que la tecnología comienza a ser percibida como un acompañante.
Lo importante no es solo la existencia de estos niveles, sino su progresión: 1) consejo, 2) validación y 3) antropomorfización. A medida que aumenta la interacción, también lo hace la implicación emocional. Así, lo que inicia como un uso instrumental puede desplazarse gradualmente hacia formas de vínculo más complejas y peligrosas. La dimensión afectiva, entonces, no es un desvío ni un uso marginal: es una posibilidad latente inscrita en el propio diseño de estos sistemas que, “involuntariamente”, “permiten sentir”.

