El desarrollo de la Inteligencia Artificial (IA) no detiene su avance. Se está probando su capacidad para generar música, videojuegos , encontrar tratamientos médicos y ahora también para predecir quién se convertirá en un delincuente , lo que está despertando la alerta de expertos en esta tecnología .
Un colectivo de más de 2 mil investigadores , académicos y especialistas en inteligencia artificial, incluyendo empleados de Facebook , Google y Microsoft , se han pronunciado en contra de una investigación que se planeaba publicar próximamente y afirma utilizar redes neuronales para " predecir la criminalidad ".
Como señala TechCrunch, los autores de la controvertida investigación aseguran que su software de reconocimiento facial automatizado puede predecir si una persona se convertirá en un delincuente , por lo que proponen su uso en organismo dedicados a la aplicación de la ley.
Los desarrolladores aseguran que al automatizar la identificación de posibles amenazas eliminando los prejuicios y las respuestas emocionales se podrá garantizar una mejor impartición de la ley, señaló el profesor y coautor de la Universidad de Harrisburg, Nathaniel JS Ashby.
Sin embargo, en una carta abierta que se opone a la publicación de la investigación , los expertos en inteligencia artificial expresaron "graves preocupaciones" explicando que el reconocimiento facial y la tecnología de predicción de delitos deben abordarse con extrema precaución para no aprovecharse de las comunidades ya vulnerables.
Para los especialistas esta propuesta no solo conlleva problemas éticos sino que, aseguran, está basada en premisas, investigaciones y métodos científicos poco sólidos, que numerosos estudios han desmentido a lo largo de los años.
Lee también: Con cuento infantil entrenan IA para que tenga sentido común
Y es que los algoritmos de reconocimiento facial han sido criticados durante mucho tiempo debido a que su exactitud es considerablemente menor cuando se trata de identificar rostros no blancos, entre muchas otras preocupaciones científicas y éticas que se plantean con frecuencia sobre este tipo de tecnología .
“Los programas de aprendizaje automático no son neutrales. Las agendas de investigación y los conjuntos de datos con los que trabajan a menudo heredan creencias culturales dominantes sobre el mundo”, advierten los autores de la carta.