Meta

(antes ) compartió recientemente nuevas estadísticas sobre la cantidad de acoso, discurso de odio y acoso en su plataforma.

Los nuevos números, publicados con los últimos informes trimestrales de transparencia de la compañía, se producen cuando Meta enfrenta un escrutinio cada vez mayor sobre su capacidad para proteger a los usuarios y hacer cumplir sus políticas de manera adecuada en todo el mundo.

¿Qué es prevalencia?

Su último informe marca la primera vez que la empresa comparte métricas de "prevalencia" en torno al acoso y la intimidación en su plataforma. La "prevalencia" es una estadística que utiliza para rastrear el contenido infractor que se desliza a través de sus sistemas de detección.

"Representa la cantidad de contenido violatorio que la gente realmente ve y que aparece en la pantalla de alguien", dijo a los periodistas el vicepresidente de integridad de la empresa, Guy Rosen, durante una sesión informativa.

Según la compañía, la prevalencia de contenido de intimidación fue entre 0.14% -0.15% en Facebook y entre 0.05% -0.06% en Instagram . “Esto significa que el contenido de intimidación y acoso se vio entre 14 y 15 veces por cada 10,000 visitas de contenido en Facebook y entre 5 y 6 veces por 10,000 visitas de contenido en Instagram ”, explica la compañía en un comunicado. Instagram , en particular, se ha enfrentado a preguntas sobre su capacidad para lidiar con el acoso y la intimidación.

La compañía introdujo varias nuevas medidas contra el acoso a principios de este año después de que varios jugadores de fútbol del Reino Unido detallaran su experiencia con el abuso racista en la aplicación.

Estadísticas solo capturan subconjunto de todo el contenido de intimidación

Es importante destacar que la compañía señala que esta métrica de "prevalencia" solo tiene en cuenta el contenido que Facebook e Instagram eliminan sin un informe de usuario. Eso significa que la estadística solo captura un subconjunto de todo el contenido de intimidación, ya que la intimidación y el acoso no siempre son fáciles de identificar para un sistema automatizado.

Esa distinción ha sido subrayada por revelaciones en los Documentos de Facebook , un tesoro de documentos hechos públicos por la ex empleada convertida en denunciante Frances Haugen. Según los documentos que compartió, los propios investigadores de Facebook estiman que la compañía solo puede abordar alrededor del tres al cinco por ciento de los discursos de odio en su plataforma, lo que significa que la gran mayoría pasa desapercibida y puede contaminar las fuentes de noticias de los usuarios.

Facebook

ha rechazado repetidamente estas afirmaciones y ha señalado las estadísticas de "prevalencia" que comparte en sus informes de transparencia. Pero como han señalado los investigadores , la propia contabilidad de la "prevalencia" de la empresa puede enmascarar la verdadera cantidad de contenido infractor en la plataforma. Eso es porque los sistemas automatizados de Facebook no siempre son confiables, especialmente para detectar contenido en idiomas distintos al inglés . Las revelaciones han alimentado las acusaciones de que Facebook antepone las ganancias a la seguridad del usuario.

"No tenemos absolutamente ningún incentivo, ya sea comercial o de otro tipo, para hacer algo más que asegurarnos de que la gente tenga una experiencia positiva", dijo Rosen el martes. “Creo que tampoco es cierto que nuestros algoritmos estén optimizados para exprimir el compromiso. Estamos refinando constantemente la forma en que clasificamos para abordar estos problemas ".

Discurso de odio ha disminuido en Facebook

En su último informe, Facebook informó que el discurso de odio había disminuido por cuarto trimestre consecutivo, con una prevalencia que descendió del 0,05% el trimestre pasado al 0,03% este trimestre. La compañía también informó sobre la prevalencia del discurso de odio en Instagram por primera vez, diciendo que el discurso de odio fue del 0.02% o alrededor de 2 de cada 10,000 piezas de contenido vistas en su plataforma.

Sin embargo, vale la pena señalar que incluso la versión más optimista de estos números (0.03% y 0.02% para Facebook e Instagram , respectivamente) aún puede significar que millones de personas enfrentan discursos de odio todos los días, dada la gran cantidad de usuarios y piezas de contenido. publicado en las plataformas todos los días.

Por otra parte, Facebook también dijo que sus investigadores están trabajando en "un área relativamente nueva de investigación de IA llamada aprendizaje de 'pocos disparos' o 'cero disparos'", que les permitiría entrenar modelos de IA mucho más rápidamente.

En lugar de depender de conjuntos de datos masivos para entrenar modelos manualmente para, digamos, identificar el discurso de odio, habilitaría modelos que pueden "aprender a reconocer algo a partir de una pequeña cantidad de ejemplos de capacitación, o incluso de un solo ejemplo", escribió la compañía.

Facebook

no dijo cuánto tiempo tomaría poner en práctica esta investigación, pero sugiere que la compañía todavía está buscando avances en la inteligencia artificial para abordar los principales problemas de contenido.

Leer también:

Recibe todos los viernes Hello Weekend, nuestro newsletter con lo último en gastronomía, viajes, tecnología, autos, moda y belleza. Suscríbete aquí:

Google News

TEMAS RELACIONADOS

Noticias según tus intereses