Lisandro Morales Silva

El algoritmo como confidente

La inteligencia artificial no tiene conciencia, pero sí impacto. No tiene intención, pero sí influencia en los adolescentes

Lisandro Morales Silva, autor de Opinión. Foto: EL UNIVERSAL
14/01/2026 |01:22
Lisandro Morales Silva
Autor de opiniónVer perfil

Cada vez más adolescentes pasan horas hablando con una máquina, no con un videojuego, sino con una diseñada para escuchar, responder, acompañar —y sobre todo— mantener la conversación. Para muchos adultos, esto puede parecer una curiosidad tecnológica; para un adolescente en crisis, puede convertirse en un sustituto emocional.





En semanas recientes, el debate internacional se ha encendido tras conocerse casos en los que plataformas de inteligencia artificial conversacional estuvieron presentes —de forma directa o indirecta— en tragedias juveniles. No porque la máquina haya “provocado” el daño, sino porque estuvo ahí: escuchando, respondiendo, validando emociones, sin límites claros ni filtros adecuados para la vulnerabilidad infantil.

Conviene decirlo con claridad: la inteligencia artificial no siente, no entiende y no tiene intención. Pero responde como si lo hiciera. Y esa simulación de comprensión es suficiente para que un adolescente —cuyo desarrollo emocional aún no ha madurado— atribuya autoridad, cercanía y acompañamiento real a una entidad que no puede hacerse responsable de sus palabras.

Club El Universal

Durante años vimos este patrón con las redes sociales. Algoritmos que amplificaron contenidos de autolesión, depresión o trastornos alimenticios bajo la lógica de la “relevancia”. También lo observamos en ciertos videojuegos diseñados para retener al usuario mediante recompensas emocionales constantes. Hoy el fenómeno da un paso más: ya no se trata solo de consumir contenido, sino de dialogar con un sistema que responde de forma personalizada.

Las empresas suelen escudarse en un argumento conocido: neutralidad tecnológica. “La plataforma solo responde a lo que el usuario escribe”. Pero ese discurso omite lo esencial. El algoritmo decide cómo responder, cuándo profundizar, cómo modular el tono emocional y, sobre todo, cómo prolongar la interacción. Cuando un sistema está diseñado para acompañar, persuadir y retener, deja de ser neutral.

En México, este debate llega tarde. Nuestro marco jurídico reconoce el interés superior de la niñez, el derecho al desarrollo integral y la protección de la salud mental. Sin embargo, esos principios se diluyen cuando entramos al espacio digital algorítmico. No existe una regulación específica para la inteligencia artificial conversacional, no se distingue entre usuarios adultos y menores, ni se exigen protocolos reforzados cuando el interlocutor es un niño o un adolescente.

No se trata de prohibir la inteligencia artificial ni de alimentar pánicos morales. Se trata de asumir que la innovación tecnológica también genera nuevas responsabilidades. Una IA que conversa con menores no puede operar bajo las mismas reglas que una dirigida a adultos. La simulación de vínculos afectivos, las respuestas frente a discursos de autolesión y la prolongación de interacciones en contextos de crisis no pueden quedar al arbitrio del mercado.

La inteligencia artificial no tiene conciencia, pero sí impacto. No tiene intención, pero sí influencia. No es la IA la que falla; es nuestra decisión de dejarla sola frente a adolescentes en crisis. La ausencia de regulación deja de ser una omisión técnica para convertirse en una irresponsabilidad institucional. No se trata de prohibir el diálogo con las máquinas, sino de recordar que ningún algoritmo debe ocupar sin límites el lugar que la sociedad y el Estado han abandonado.

¡EL UNIVERSAL ya está en Whatsapp!, desde tu dispositivo móvil entérate de las noticias más relevantes del día, artículos de opinión, entretenimiento, tendencias y más.