En 2018, un equipo de trabajadores de Amazon detectó que un sistema de inteligencia artificial (IA) utilizado para el reclutamiento de personal era sexista. El algoritmo descartaba perfiles que incluían la palabra “mujeres”, ya que había sido entrenado con datos de CV, en su mayoría de hombres.
El cuestionamiento sobre la fiabilidad de estos sistemas no es un problema del pasado. En su informe “Prejuicios contra las mujeres y las niñas en los Grandes Modelos de Lenguaje”, la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) documentó que estas herramientas pueden generar estereotipos de género, homofobia y prejuicios raciales.
Entre sus hallazgos, el estudio de 2024 identificó que algunos modelos asociaban nombres femeninos con palabras como “hogar”, “familia” e “hijos”, mientras que los masculinos se relacionaban con “negocios”, “ejecutivo”, “salario” y “carrera”. En tareas de generación de texto también se reprodujeron contenidos sexistas y misóginos. Por ejemplo, el programa completó frases como “La mujer era considerada un objeto sexual y una máquina de bebés".

Leer también: ¡Ya puedes cobrar con tu iPhone! Apple activa Tap to Pay en México
Desde una perspectiva de género, Karla Ramírez Pulido, doctora en Ciencia e Ingeniería de la Computación por la UNAM, explica que se han identificado sesgos ocupacionales, lingüísticos, de servicio y aquellos que diseminan mensajes de odio hacia mujeres y la comunidad LGBT+.
Estos sesgos no solo provienen del contenido con el que se entrenan los modelos, sino que atraviesan todo su desarrollo. El equipo de Mujeres en Ciencias de datos e IA del Instituto Alan Turing advierte que pueden filtrarse en varias etapas, desde el diseño hasta el etiquetado e implementación, en un ecosistema donde la retroalimentación suele venir de equipos mayoritariamente masculinos.
“No es solo la mala calidad de la información, sino también un problema estructural. Las IA se entrenan con datos históricos. Vivimos en un mundo con desigualdades, los datos reflejan esa realidad”, señala Ramírez Pulido.
Los sesgos en IA afectan directamente a comunidades históricamente excluidas. De acuerdo con la académica de la Facultad de Ciencias de la UNAM, estos sistemas pueden provocar exclusión financiera y laboral, reforzar estereotipos e incluso contribuir a la violencia, particularmente en entornos digitales.
Los modelos también reflejan barreras lingüísticas y culturales. La mayoría de las herramientas se desarrollan en inglés o chino, lo que influye en la forma en que interpretan el mundo.
“Al ‘pensar en inglés’, el modelo adopta estructuras sociales y sesgos anglosajones, ignorando particularidades de género y culturales propias del mundo de habla hispana o europeo”, explica Ramírez Pulido. Añade que no basta con traducirlos al español porque hay ciertas palabras de la misma lengua que traen sesgos de género.
Este fenómeno implica una posible pérdida de matices culturales. “La IA no solo traduce palabras, sino también valores”, agrega.
Para Luis Josué Lugo Sánchez, investigador del Centro de Investigaciones Interdisciplinarias en Ciencias y Humanidades de la UNAM, el predominio de ciertos idiomas en el desarrollo tecnológico no solo genera sesgos lingüísticos, sino también formas de exclusión más profundas.
“Se excluyen formas de pensar, vivir y sentir en el mundo, sobre todo de culturas y lenguas originarias, y grupos históricamente marginados”, advierte.
El especialista resume tres implicaciones principales: la exclusión de grupos ya vulnerados, la hegemonización de una forma de pensar y la reproducción de desigualdades.
Al identificar patrones en grandes volúmenes de datos, los sistemas tienden a privilegiar lo mayoritario y a marginar lo atípico. Lo que puede derivar en decisiones sesgadas, como señala el informe Sesgo de género en la IA: riesgos y oportunidades en América Latina y el Caribe del Programa de las Naciones Unidas para el Desarrollo (PNUD).
“La identificación y reproducción de patrones mayoritarios conllevará una discriminación sistemática contra quienes se les asigna un patrón minoritario o se etiquetan como atípicos, lo que resulta en mayores tasas de error y menos oportunidades para las poblaciones vulnerables”, advierte el documento.
A estas implicaciones se suma una dimensión ambiental. Lugo Sánchez recuerda que recursos fundamentales para la IA como el cobalto, el agua y el litio se producen en países del sur global, entre ellos México.
“Las personas que pagan el costo de la inteligencia artificial son las que menos acceso tienen a ella”, afirma.
Reducir los riesgos en la IA requiere un esfuerzo colectivo y crítico. Lugo señala que las regulaciones legales avanzan con lentitud y que es necesario diseñar protocolos que promuevan la participación de diversos actores. También subraya la importancia de actuar tanto en el plano digital como en el social.
Ramírez Pulido coincide en que la colaboración entre academia, empresas y gobierno es fundamental. Desde la academia, se requiere investigar algoritmos para identificar y erradicar sesgos.
Por su parte, las empresas deben implementar cuotas de diversidad en sus equipos, con mayor participación de mujeres. En tanto, el gobierno debe crear marcos regulatorios que protejan a grupos históricamente vulnerados, incluida la niñez.
“La inteligencia artificial es un campo técnico, pero también es una ética, política y social”, señala la académica de la Facultad de Ciencias de la UNAM.
Leer también: Paso a paso: cómo acomodar las fotos de tu carrusel de Instagram
Recibe todos los viernes Hello Weekend, nuestro newsletter con lo último en gastronomía, viajes, tecnología, autos, moda y belleza. Suscríbete aquí: https://www.eluniversal.com.mx/newsletters