En Facebook están conscientes, incluso de acuerdo, en que hay regulaciones que deben ser actualizadas para responder a las necesidades de la actualidad. Durante una conferencia en la que se presentó el Informe de Cumplimiento de las Normas Comunitarias correspondiente al cuarto trimestre de 2020, EL UNIVERSAL preguntó a Monika Bickert, vicepresidenta de Política de Contenido de esa empresa, su opinión en torno a las iniciativas de ley para moderar las redes sociales en territorio nacional.

Aunque no abundó sobre el caso de nuestro país en particular, dijo que “México no es la excepción; estamos siempre dispuestos a colaborar y participar en los debates para actualizar las regulaciones a las redes sociales, siempre buscando un equilibrio entre mejores prácticas y la protección a nuestros usuarios.

“Es un debate que vemos que está sucediendo en varias partes del mundo. Existe una preocupación, tanto de la sociedad como de los gobiernos, en torno a la manera en que el contenido dañino se ubica y se elimina de las plataformas sociales. Ha ocurrido en otros países y sabemos que es una preocupación de los gobiernos hacer responsables a las plataformas sociales sobre el modo en que se aseguran que contenido como discursos de odio, acoso, noticias falsas y contenido dañino tenga el menor impacto en los usuarios como sea posible”, respondió Bickert.

También lee: 

En ese sentido, sin hacer referencia al contexto nacional en el que, por ejemplo, el senador Ricardo Monreal presentó una iniciativa de ley para la regulación de las diversas redes sociales en México, la vicepresidenta de Política de Contenido de Facebook agregó: “El tema de la libertad de expresión ha estado presente en los últimos meses y fue especialmente visible para nosotros durante las elecciones presidenciales en Estados Unidos.

“Para Facebook es una prioridad garantizar la libertad de expresión dentro de nuestra plataforma, pero siempre estará acotada a las Políticas de Contenido, las cuales son públicas para todos nuestros usuarios: acoso en cualquiera de sus formas, noticias falsas, lenguaje de discriminación, racismo o lenguajes de odio no son permitidos ni tolerados”, indicó.

A esto obedeció el hecho de que en enero de este año la empresa decidiera restringir el acceso a la plataforma a Donald Trump, entonces presidente de Estados Unidos.

El centro de esta discusión, agregó Bickert, “es que las redes sociales y las regulaciones que están vigentes se establecieron hace años y la manera en que funcionan las redes sociales ha crecido y evolucionado. Muchos países han iniciado debates legislativos sobre cómo y de qué manera las redes sociales deben ser reguladas bajo esta nueva realidad. En Facebook estamos de acuerdo en que hay regulaciones que deben ser actualizadas, y creemos que es necesario que exista más transparencia en cómo las redes sociales evitan que exista este contenido dañino”.

También lee: 

También, enfatizó, “en este debate debemos llegar a un equilibrio en donde podamos moderar el contenido, pero, al mismo tiempo, nos aseguremos de no cruzar la línea en cuanto a los derechos de los usuarios. Para eso, creo, debemos primero definir y descubrir los sistemas adecuados para que la transparencia, en la manera en que opera la moderación, esté al alcance de todos”.

Dijo que iniciativas como la del Informe de Cumplimiento de las Normas Comunitarias son un paso en materia de transparencia. “Somos la única compañía que presenta estas cifras. Creo que el hacerlas públicas y ponerlas al alcance de todos nos ayuda a hacer visible la manera en que nuestro Consejo de Moderación opera, el modo en que nuestro algoritmo identifica el contenido dañino y la manera en que se toman las decisiones para removerlo”.

En la plataforma de Facebook, abundó la experta, “participamos de manera permanente en los foros en donde se discuten estos temas y siempre hemos tenido acercamiento con los reguladores y los gobiernos que buscan generar estos debates y actualizar las bases sobre las cuales operan las redes sociales”.

Se reduce contenido nocivo

Discursos de odio, expresiones de racismo, discriminación y acoso registraron una reducción importante en Facebook en el último cuarto de 2020, dijo Guy Rosen, vicepresidente de Integridad de esa red social, durante la presentación del informe.

“En este trimestre, la prevalencia del discurso del odio cayó de un porcentaje de entre 0.10% a 0.11%, a un porcentaje de 0.07% a 0.08%. Eso es el equivalente a entre siete y ocho visualizaciones de discurso de odio por cada 10 mil visualizaciones de contenido general. La prevalencia de contenido violento y gráfico también se redujo; en este caso de 0.07% a 0.05%, y el contenido de desnudez de adultos bajó de un estimado de entre 0.05% a 0.06%, a un porcentaje de 0.03% a 0.04%”.

También lee: 

Esta reducción se debe a las mejoras que han realizado para ubicar y eliminar el contenido nocivo y así proteger los derechos de los usuarios y exponerlos a la menor cantidad de publicaciones de este tipo.

“Cada publicación es clasificada por procesos que tienen en cuenta una combinación de señales de integridad, como la probabilidad de que un contenido infrinja nuestras políticas, con otras que recibimos de los usuarios provenientes de encuestas o de acciones realizadas por ellos, como ocultar o denunciar.

“Sabemos que es importante hacer transparente la manera en que las decisiones de moderación de contenidos son tomadas, esa es la razón por la cual comenzamos el ejercicio de presentar estos reportes”, agregó Monika Bickert.

La ejecutiva señaló que, de octubre a diciembre, en Facebook estuvieron muy ocupados por el tema de pandemia de Covid-19 y por las elecciones en Estados Unidos. También, dijo, “estuvimos muy atentos a moderar y remover contenido que provenía de movimientos sociales militarizados; con teorías de la conspiración del grupo QAnon, así como una serie de contenido falso sobre el Covid-19, y del desarrollo y uso de las vacunas”.

También lee: 

En un esfuerzo por moderar de mejor manera el contenido en torno al virus SARS-CoV-2, Facebook pidió apoyo a la Organización Mundial de la Salud y, con base en la información que les compartieron, removieron contenido con noticias falsas.

Mike Schroepfer, jefe de Tecnología de Facebook, explicó: “Hemos trabajado en integrar más palabras clave y términos a nuestro algoritmo de inteligencia artificial, pero no solamente en el idioma inglés, sino que estamos actualizando todos estos términos en otros idiomas. Por ejemplo, gracias a la integración del idioma español y del árabe, se ha logrado detectar y eliminar cientos de contenidos relacionados a discursos de odio, acoso y discriminación, y hemos mitigado su diseminación”.