Puede que las redes sociales sean un espacio para la libre expresión. Pero en un mundo en donde se lucha por los derechos y la igualdad los discursos de odio no deberían tener exposición. Es por ello que, Investigadores de la Universidad Tecnológica de Queensland (QUT), en , han desarrollado un algoritmo que detecta contenido misógino en Twitter .

El equipo de investigadores desarrolló el sistema extrayendo primero un millón de tweets. Luego refinaron el conjunto de datos buscando en las publicaciones tres palabras clave que representan un lenguaje misógino : puta, mujerzuela y violación, de acuerdo con información del medio The Next Web.

Posteriormente los desarrolladores de esta tecnología categorizaron los 5 mil tweets que tenían las palabras clave, fueran misóginos o no, según su contexto e intención. Estos tweets etiquetados se enviaron luego a un clasificador de aprendizaje automático, que utilizó las muestras para crear su propio modelo de clasificación.

El sistema utiliza un algoritmo de aprendizaje profundo para ajustar su conocimiento de la terminología a medida que evoluciona el lenguaje. Los investigadores afirmaron que, mientras su sistema de construía su vocabulario, ellos se encargaron de monitorearon el contexto y la intención del lenguaje con el objetivo de ayudar al algoritmo a diferenciar entre abuso , sarcasmo y "uso amigable de terminología agresiva".

"Tomemos la frase 'volver a la cocina' como ejemplo: sin un contexto de desigualdad estructural, la interpretación literal de una máquina podría perder el significado misógino. Pero visto con la comprensión de lo que constituye un lenguaje abusivo o misógino, puede identificarse como un tweet con intención misógina", dijo el profesor Richi Naya, coautor del estudio.

Gracias a lo anterior, los investigadores afirman que hoy su sistema tiene la capacidad de entender diferentes contextos con solo analizar el texto y sin la ayuda del tono. “Nos alegramos mucho cuando nuestro algoritmo identificó `volver a la cocina’ como misógino: demostró que el aprendizaje del contexto funciona”, añadió Naya.

Los investigadores dicen que su modelo actualmente puede identificar tweets misóginos con un 75% de precisión. Y, lo mejor, es que también podría ajustarse para detectar el racismo , la o el abuso de personas discapacitadas.

Su próximo paso es lograr que las plataformas de redes sociales prueben su algoritmo y desarrollen su investigación respecto a la herramienta que, si tiene éxito, evitará que sean los propios usuarios los que identifiquen y denuncien tweets con contenido inapropiado. "Esperamos que nuestra solución de aprendizaje automático pueda ser adoptada por las plataformas de redes sociales para identificar e informar automáticamente este contenido para proteger a las mujeres y otros grupos de usuarios en línea", dijo Naya.

redes-sociales

Controles para conversaciones

Aunque el algoritmo anterior fue desarrollado por una universidad con las mejores intenciones de mejorar el ambiente en redes sociales, las propias plataformas también cuentan con sus sistemas, un ejemplo son los controles para conversaciones en .

Esta herramienta brinda a las personas más control sobre las conversaciones que mantienen por lo que ya no tienen que enfrentar respuestas no deseadas. “Ya que tu Tweet equivale a tu espacio, ya es hora de despedirse de los llamados Reply Guys”, señaló la empresa en un comunicado hace algunas semanas.

De acuerdo con Twitter las personas han utilizado esta configuración para organizar entrevistas y paneles, compartir lo que piensan, y realizar anuncios sintiéndose más seguras . Sin embargo, aclaró que estos controles no impiden que los usuarios puedan conocer diferentes puntos de vista, únicamente están más protegidas ante el spam y el abuso.

Twitter también dijo que las personas que utilizan esta comparten más lo que piensan y buscan con más frecuencia comentarios adicionales. Incluso, afirma, “aún se pueden compartir opiniones diferentes a través de Retweets con comentarios que, a veces, llegan a una audiencia más grande que el Tweet original”.

Google News

TEMAS RELACIONADOS

Noticias según tus intereses