La (IA), silenciosamente presente ya en sistemas de seguridad , asignación de empleos o búsquedas en internet, comienza a preocupar en el seno de la , donde la alta comisionada para los derechos humanos, , pidió hoy -15 de septiembre- una ampliación de tiempo (moratoria parcial) en su venta y uso.

Esta moratoria se debería aplicar en principio para aquellas tecnologías de IA potencialmente o que amenacen nuestros derechos, señaló Bachelet ante el Consejo de Derechos Humanos de Naciones Unidas , que se reúne estos días en .

"No podemos seguir reaccionando tardíamente a los efectos de la inteligencia artificial, ni permitir que se use de manera ilimitada, sin fronteras ni supervisión, para enfrentarnos luego a sus casi inevitables consecuencias sobre los derechos humanos", afirmó la alta comisionada.

Bachelet hizo este llamamiento antes de la presentación ante el mismo Consejo de un informe, que document las amenazas que plantea la IA, que se define como aquélla en la que la máquina puede aprender por si misma.

Lee también:

El informe ha estudiado el comportamiento de la IA en sistemas de elaboración automática de perfiles, toma de decisiones y otros usos, que, según concluye, pueden vulnerar el derecho a la intimidad y otros relativos a la salud, la educación, la libertad de movimiento o a la libre expresión.

Big data y reconocimiento facial

El estudio documenta varios aspectos en los que la inteligencia artificial ya está interfiriendo en los derechos humanos, por ejemplo mediante el gran uso de datos personales, algo que pone en riesgo la privacidad de millones de personas.

Las grandes multinacionales tecnológicas, dueñas de muchas de esas gigantescas bases de datos, están utilizándolas para determinar mediante inteligencia artificial qué contenido filtrar, cuál amplificar o dejar en un segundo plano, algo que cuanto menos plantea retos frente a la libertad de expresión e información.

Un segundo aspecto es el uso de estos datos de forma discriminatoria, y en este sentido el informe subraya que ya se ha comprobado que algunos sistemas de IA han mostrado sesgos o a la hora de asignar empleos o decidir quién puede o no acceder a determinados servicios sociales.

Además, se han observado tecnologías que usan la IA para influir en el comportamiento de la gente o intentar predecir cuál será en el futuro,, señala el informe, que también da la voz de alarma sobre la falta de transparencia en la que se está desarrollando el sector.

Lee también:

No menos preocupante es la utilización de la inteligencia artificial en materia de seguridad, por ejemplo en el control de fronteras o en la identificación de sospechosos, en ocasiones incluso de manera remota, a través de sistemas biométricos como el y hasta .

Ante todo ello, Bachelet pidió hoy frenar la utilización de algunas de estas tecnologías "hasta que se haya puesto en vigor las salvaguardas adecuadas", e incluso prohibir las que ya se determine claramente que suponen una amenaza a los derechos humanos.

China apuesta por la IA, pero también occidente

Aunque el documento no señala ningún país en particular, es uno de los que más han apostado por tecnologías como el reconocimiento facial y la ha usado para llevar a cabo detenciones de sospechosos, incluyendo disidentes.

Peggy Hicks

, directora de Procedimientos Especiales de la Oficina de la ONU para los Derechos Humanos, aclaró en una rueda de prensa que el informe no sólo denuncia usos preocupantes de la IA en China, sino también "cosas que ocurren en lugares como o ".

"Hay un enorme riesgo para los derechos humanos, pero no en el futuro, sino ahora mismo", advirtió Hicks, quien señaló que si no se regula la inteligencia artificial "el peligro se puede multiplicar".

Bachelet recordó por su parte ante el Consejo de Derechos Humanos que "la inteligencia artificial llega ahora a casi todos los rincones de nuestras vidas" y puede decidir "quién recibe determinados servicios públicos o quién tiene oportunidad de obtener un empleo".

melc

Google News

TEMAS RELACIONADOS

Noticias según tus intereses