Suscríbete

¿Con IA se puede saber quién es delincuente?

Investigadores se unen en contra de un software que asegura puede vaticinar la criminalidad

inteligencia-artificial-se-puede-predecir-quién-es-delincuente
La investigación ha generado controversia. Imagen Piqsels
Techbit 25/06/2020 13:25 Ariadna Cruz Actualizada 13:25

El desarrollo de la Inteligencia Artificial (IA) no detiene su avance. Se está probando su capacidad  para generar música, videojuegos, encontrar tratamientos médicos y ahora también para predecir quién se convertirá en un delincuente, lo que está despertando la alerta de expertos en esta tecnología

Un colectivo de más de 2 mil investigadores, académicos y especialistas en inteligencia artificial, incluyendo empleados de Facebook, Google y Microsoft,  se han pronunciado en contra de una investigación que se planeaba publicar próximamente y afirma utilizar redes neuronales para "predecir la criminalidad". 

Como señala TechCrunch, los autores de la controvertida investigación aseguran que su software de reconocimiento facial automatizado puede predecir si una persona se convertirá en un delincuente, por lo que proponen su uso en organismo dedicados a la aplicación de la ley.

ley

Lee también: Ella es Mar.ia; la primera humana virtual mexicana

Los desarrolladores aseguran que al automatizar la identificación de posibles amenazas eliminando los prejuicios y las respuestas emocionales se podrá garantizar una mejor impartición de la ley, señaló el profesor y coautor de la Universidad de Harrisburg, Nathaniel JS Ashby.

Sin embargo, en una carta abierta que se opone a la publicación de la investigación, los expertos en inteligencia artificial expresaron "graves preocupaciones" explicando que el reconocimiento facial y la tecnología de predicción de delitos deben abordarse con extrema precaución para no aprovecharse de las comunidades ya vulnerables.

Para los especialistas esta propuesta no solo conlleva problemas éticos sino que, aseguran, está basada en premisas, investigaciones y métodos científicos poco sólidos, que numerosos estudios han desmentido a lo largo de los años.

inteligencia-artificial

Lee también: Con cuento infantil entrenan IA para que tenga sentido común

Y es que los algoritmos de reconocimiento facial han sido criticados durante mucho tiempo debido a que su exactitud es considerablemente menor cuando se trata de identificar rostros no blancos, entre muchas otras preocupaciones científicas y éticas que se plantean con frecuencia sobre este tipo de tecnología

“Los programas de aprendizaje automático no son neutrales. Las agendas de investigación y los conjuntos de datos con los que trabajan a menudo heredan creencias culturales dominantes sobre el mundo”, advierten los autores de la carta.

 

Comentarios