Buscando que la policía de Estados Unidos resuelva una serie de controversias respecto al uso de sistemas de , Amazon anunció que, durante un año, no permitiría que utilicen su tecnología Rekognition .

Luego de las protestas en Estados Unidos tras la muerte de que evidenció el abuso de las autoridades, en especial sobre las personas de raza negra, se abrió un debate sobre los problemas de sesgo que presentan las tecnología de reconocimiento facial que podrían llevar a infringir los derechos humanos y la privacidad.

Gracias a una investigación realizada por expertos del MIT Media Lab y Microsoft Research en 2018 se encontró que los sistemas de las principales empresas tecnológicas, incluyendo IBM y , presentaban mayores tasas de error al identificar individuos de piel más oscura, según se publicó en The New York Times.

reconocimiento-facial

Asimismo, en 2019 otro estudio encontró que Rekognition , la de reconocimiento facial de Amazon , también tenía problemas significativos para identificar el género de las personas de piel más oscura, mientras que la tasa de error fue cercana a cero al analizar imágenes de personas de piel clara.

Incluso, después, investigadores de escribieron una carta abierta diciendo que Rekognition tenía defectos y no debería estar en manos de las fuerzas del orden.

Pues ahora es la propia la que limitará el uso de su tecnología a la policía pidiendo el desarrollo de una regulación federal. Sin embargo la compañía nunca ha revelado cuántos departamentos de policía utilizan sus sistemas.

reconocimiento-facial

En la carta de sobre este anuncio se puede leer: “Hemos abogado por que los gobiernos establezcan regulaciones más estrictas para regular el uso ético de la tecnología de reconocimiento facial , y en los últimos días, el Congreso parece estar listo para asumir este desafío. Esperamos que este año le brinde al Congreso suficiente tiempo para implementar las reglas apropiadas, y estamos listos para ayudar si lo solicita”.

La compañía también aclaró que lo anterior no implica que la compañía deje de proporcionar su software a organizaciones de derechos dedicados a identificar niños desaparecidos y explotados.

Cabe recordar que también también hizo un anuncio al respecto y aseguró que, por preocupaciones éticas, dejará de desarrollar e investigar sobre sistemas de reconocimiento facial.

Google News

TEMAS RELACIONADOS

Noticias según tus intereses