Techbit

Boston prohíbe a la policía el uso de software de reconocimiento facial

Es la segunda ciudad más grande de los Estados Unidos en hacerlo

El proyecto de ley se presentó en parte para proteger a los residentes minoritarios de la ciudad
24/06/2020 |16:30
Redacción El Universal
Pendiente este autorVer perfil

Boston

se ha convertido en la segunda ciudad más grande de los Estados Unidos en prohibir que la policía y otras agencias locales usen software de reconocimiento facial (a través de WBUR).

El consejo de 13 miembros de la ciudad votó por unanimidad para prohibir la tecnología fuera de uso en casos criminales específicos. El proyecto de ley también evita que cualquier funcionario de la ciudad obtenga la tecnología a través de un tercero.

Newsletter
Recibe en tu correo las noticias más destacadas para viajar, trabajar y vivir en EU

El proyecto de ley se presentó en parte para proteger a los residentes minoritarios de la ciudad. "Boston no debe usar tecnología racialmente discriminatoria que amenace la privacidad y los derechos básicos de nuestros residentes", dijo la concejala Michelle Wu, que copatrocinó el proyecto de ley junto con el concejal Ricardo Arroyo. Antes de la votación, los dos funcionarios impugnaron que la tecnología es ampliamente inexacta para identificar a las personas de color.

De acuerdo con el portal Engadget, la prohibición se produce después de que el software llamado DataWorks Plus y el error humano llevaron a la detención injusta de un hombre negro en Detroit. La policía arrestó a Robert Williams después de que el software combinara incorrectamente la foto de su licencia de conducir con las imágenes de seguridad de la escena de un robo.

El incidente es la primera instancia conocida de un arresto ilícito en los Estados Unidos basado en una coincidencia de reconocimiento facial incorrecta, según la Unión Americana de Libertades Civiles ( ACLU ). Sin embargo, la investigación sugiere que la mayoría del software de reconocimiento facial no es excelente para identificar correctamente a las personas de color. Un estudio del MIT de 2018 , por ejemplo, encontró que tres programas disponibles en el mercado identificaron incorrectamente a las mujeres de piel oscura hasta el 34.7 por ciento de las veces.

"Esta es una victoria crucial para nuestros derechos de privacidad y para personas como Robert Williams, quienes han sido arrestados por crímenes que no cometieron debido a una aplicación de la ley de tecnología que no deberían usar", dijo Carol Rose, directora ejecutiva de ACLU de Massachusetts. "Los legisladores de todo el país deben seguir el ejemplo y detener de inmediato el uso de esta tecnología por parte de las fuerzas del orden público. Esta tecnología de vigilancia es peligrosa cuando está bien y es peligrosa cuando está mal".

JCP