Más Información

Una crónica desde dentro; Raymundo Riva Palacio narra incidente de tiroteo en cena de corresponsales

Profesor del mes y diseñador de videojuegos: ¿Quién es Cole Tomas Allen, el hombre que irrumpió en la cena de corresponsales de EU?

Supernova Genesis 2026: Horario y dónde ver EN VIVO las peleas en la Arena Ciudad de México, HOY 26 de Abril

Claudia Sheinbaum inaugura el Tren Felipe Ángeles; arranca ruta Buenavista-AIFA con viaje de 45 minutos

Continúa Fase I de contingencia ambiental en el Valle de México; autoridades mantienen medidas por altos niveles de ozono
ha asegurado que tiene que realizar más análisis en el algoritmo de la red social después de que se mostrara que tiene sesgos raciales a la hora de priorizar las fotografías insertadas en los tuits, al margen de la prioridad que les dé el usuario que las comparte.
Hace tiempo que se sabe que al momento de mostrar una miniatura de una foto en un tuit, una herramienta interna de Twitter analiza la imagen y destaca algunos elementos por sobre todos (texto, un rostro, un objeto con un fondo uniforme, etcétera) y centra la miniatura en ellos, lo que permite en algunos casos jugar con ello (la imagen tiene un sentido cuando se ve en miniatura, y otro cuando se expande), pero aquí se trata de otra cosa.
El ingeniero de criptografía e infraestructura Tony Arcieri mostró en un experimento el sesgo racial del algoritmo de Twitter con dos fotografías en un tuit: una del expresidente de Estados Unidos, Barack Obama, y otra del senador republicano Mitch McConnell.
Los rostros de los dos personajes se muestran en parejas en cada foto, colocadas en vertical, una encabezada por la de McConnell y la otra por la de Obama. En la prueba de Arcieri, el algoritmo destaca el rostro de McConnell frente al de Obama en ambos casos, tanto si el senador lleva una corbata roja como una azul. Solo destaca la del expresidente cuando el ingeniero muestra las fotografías polarizadas.
La prueba llegó a conocimiento de Liz Kelley, del equipo de comunicación de Twitter, quien ha asegurado que la empresa "todavía tiene más análisis que hacer" para evitar el sesgo en su algoritmo.
Según Kelley, Twitter realizó tests antes de distribuir el modelo y no encontraron "pruebas de sesgos racial ni de género". No obstante, van a facilitar el código de su trabajo para que otros los puedan revisar y replicar.
afcl/nv
Más Información
Noticias según tus intereses
ViveUSA
[Publicidad]


















