La ONU pide un código de conducta para los futuros soldados robot

Esta medida se toma ante la posible creación de armas autónomas, que deciden por sí mismas cuándo y a quién atacar
La ONU pide un código de conducta para los futuros soldados robot
(FOTO: Especial)
21/11/2017
00:30
La Nación - Argentina / GDA
-A +A

La comunidad internacional abordó en la ONU posibles respuestas a los sistemas armamentísticos autónomos letales (descriptos a veces como "robots asesinos"), capaces de operar sin instrucciones humanas, como un código de conducta o un mecanismo de revisión de la tecnología.

"Se abordaron los pros y los contras y barajaron una gama de opciones políticas, que van desde adoptar una declaración políticamente vinculante, un código de conducta, un mecanismo de revisión continuada de la tecnología y un instrumento legalmente vinculante", afirmó el embajador de la India ante la Conferencia de Desarme de la ONU, Amandeep Gill.

El diplomático indio preside el Grupo de Expertos Gubernamentales sobre Sistemas de Armas Autónomos Letales que se reunió en Ginebra para abordar por primera vez de manera formal en la ONU los desafíos y las implicaciones éticas, técnicas, legales y militares de los llamados "robots asesinos".

En el encuentro participaron algunos de los 125 Estados parte de la Convención, así como representantes de organizaciones internacionales, de la industria y de la sociedad civil, ONG y académicos.

Gill explicó que de este debate saldrán unas conclusiones y recomendaciones y, si hay consenso, la convocatoria para 2018 de una nueva reunión más larga, de dos semanas, sobre los "robots asesinos", informó la agencia EFE.

Es entonces cuando las partes pretenden determinar los rasgos de esta tecnología y los sistemas de armas autónomos letales para llegar a un entendimiento común acerca de "con qué lidiamos".

Armas autónomas
Actualmente hay mucha confusión en torno a este concepto y no hay constancia de la existencia de "robots asesinos".

De acuerdo con especialistas, los avances en el ámbito de la inteligencia artificial permitirán en poco tiempo crear armas, por ejemplo drones, capaces de operar de forma autónoma en el campo de batalla y de tomar decisiones por sí solos sin instrucciones humanas.

Una veintena de países ya pidieron prohibir esos sistemas, mientras activistas de derechos humanos advierten que al menos seis Estados están invirtiendo en este tipo de tecnología.

Gill quiso transmitir un mensaje tranquilizador a la sociedad, al afirmar que "la buena noticia es que los robots no están tomando el control del mundo".

"Los humanos aún están al mando y continuarán estando en el control, y nos aseguraremos de que así siga siendo", aseguró.

En la próxima cita, la intención del diplomático es que se aborde la temática de la "interfaz humano-máquina", que se refiere a la interacción de la persona y un programa informático y que en el caso de los "robots asesinos" puede significar seguir o no controlándolos de alguna manera, frenarlos o retirarlos del campo de batalla.

jpe

Mantente al día con el boletín de El Universal

 

Comentarios