23 | ABR | 2019
iconos de redes sociales
Las plataformas sociales ya no podrán autorregularse. Imagen Pixabay

Directivos de redes sociales serán responsables del contenido

08/04/2019
11:07
AFP
-A +A
La medida planteada por el gobierno británico incluirá grandes multas y consecuencias legales

El gobierno británico dio a conocer que explorará mecanismos para responsabilizar personalmente a ejecutivos de redes sociales por contenidos peligrosos publicados en sus plataformas, como parte de una serie de medidas sobre seguridad en línea.

El plan, que incluye la creación de un regulador independiente, se propone enfrentar directamente todo tipo de contenidos peligrosos, desde la incitación a la violencia o el suicidio hasta la divulgación de información falsa o el acoso en redes sociales.

El tema se tornó urgente después del fracaso de Facebook de eliminar inmediatamente la transmisión en vivo de la matanza protagonizada el 15 de marzo por un supremacista blanco en dos mezquitas de Nueva Zelanda, que dejó un saldo de 50 personas muertas.

La primera ministra británica, Theresa May, alertó a las empresas de tecnología que "no han hecho lo suficiente" para proteger a los usuarios, y que su gobierno estaba dispuesta a actuar sobre esas compañías para "mantener segura" a la población. "Por un tiempo demasiado extenso estas empresas no han hecho lo suficiente para proteger a los usuarios, en especial los niños y los jóvenes, de lo contenidos peligrosos", expresó en un comunicado. Esto no es bueno, y es tiempo de hacer las cosas de otra forma. Las empresas deben comenzar a asumir las responsabilidades por sus plataformas y ayudar a restituir la confianza pública en esta tecnología", expresó.

Esta nueva normativa prevista será válida para toda empresa que permita a los usuarios compartir, generar contenido o interactuar en línea.

De esa forma, la medida incluiría centros de almacenamiento de datos y foros así como las plataformas sociales más conocidas, servicios de mensajes y motores de búsqueda.

En caso de no lograr cumplir con los nuevos estándares, las empresas estarían expuestas a pesadas multas. "Estamos consultando la posibilidad de aplicar pesadas multas, bloquear acceso a sitios de internet y potencialmente responsabilizar legalmente a miembros individuales de cada directorio", apuntó el gobierno británico.

En ese paquete de propuestas, el nuevo ente regulador tendría el poder de forzar a las plataformas y otros mecanismos a publicar informes anuales sobre transparencia. Ello incluiría la cantidad de contenido peligroso diseminado en cada sitio o plataforma y la forma en que cada caso fue tratado.

Esa entidad reguladora también tendría capacidad de emitir códigos de operación que obligaría a las empresas a alcanzar exigencias mínimas, como la contratación de personal dedicado de eliminar noticias falsas, en particular durante períodos electorales.

"La era de la autorregulación de las empresas en línea ya terminó", dijo el secretario de Cultura, Medios y Ambiente Digital, Jeremy Wright, quien añadió que quería ver al sector como "parte de la solución". "Aquellos que no logren hacerlo, enfrentarán acciones duras", amenazó.

Los defensores de medidas regulatorias más firmes para las redes sociales y plataformas en línea saludaron las propuestas. "Por mucho tiempo las redes sociales han fracasado en priorizar la seguridad de los niños, y los han dejado expuestos a abuso y contenido dañino", dijo Peter Wanles, director de la Sociedad Nacional para la Prevención de la Crueldad hacia los Niños.
 

Artículo

Facebook admite fallos en AI en detección de video terrorista

Facebook admitió que su sistema de AI para detectar contenido no permitido "no es perfecta" y que falló al reconocer el video del atentado terrorista del viernes en Nueva Zelanda
Facebook admite fallos en AI en detección de video terroristaFacebook admite fallos en AI en detección de video terrorista

 

Mantente al día con el boletín de El Universal

 

Comentarios