Expertos en inteligencia artificial llaman a frenar desarrollo de armas

El científico Stephen Hawking y el cofundador de Apple Steve Wozniak, están en la lista de quienes firmaron una carta donde advierten sobre los peligros de este tipo de tecnología bélica
Hawking se sumó a esta iniciativa. Foto: Archivo
27/07/2015
14:26
GDA / El Mercurio / Chile
-A +A

La posibilidad de crear armas que no requieran de control humano es una idea que cientos de expertos en el campo de la inteligencia artificial no quieren que se materialice: más de mil de ellos firmaron una carta abierta en la que piden frenar el desarrollo de esta tecnología por los graves peligros que reviste.

El científico británico Stephen Hawking y el cofundador de Apple Steve Wozniak, son algunos de los personajes que se sumaron a esta iniciativa que busca crear conciencia sobre lo que podrían llegar a hacer este tipo de dispositivos, una campaña a la que también se sumaron Demis Hassabis (jefe ejecutivo de Google DeepMind) y Elon Musk (director de Tesla Motors).

"La tecnología en inteligencia artificial ha alcanzado un punto en el que el despliegue de armas autónomas es alcanzable -en términos prácticos y no legales- en cosa de años, sino décadas, y la apuesta es muy alta: las armas autónomas han sido descritas como la tercera revolución bélica, después de la pólvora y las armas nucleares", comienza describiendo la carta, que fue dada a conocer durante la Conferencia Internacional Conjunta de Inteligencia Artificial que se desarrolla en Buenos Aires.

Los expertos aseguran que, si un poder militar desarrolla sistemas capaces de seleccionar objetivos y operar de forma autónoma, sin control humano directo, daría pie a una carrera similar a la que ocurrió con la bomba atómica. Sin embargo, la gran diferencia es que para los primeros no se requieren materiales difíciles de encontrar -como el uranio- y por lo tanto sería muy difícil monitorear quiénes son los que los están desarrollando.

"El punto final de esta trayectoria tecnológica es obvio: las armas autónomas se transformarán en los (fusiles) Kalashnikov del mañana. Hoy la pregunta clave para la humanidad es si comenzar una carrera armamentista en base a la inteligencia artificial o prevenir su inicio", agregan los especialistas.

No es la primera vez personajes como Musk o Hawking advierten públicamente sobre los peligros que pueden derivar del desarrollo de la inteligencia artificial, en especial en el campo bélico. Hawking ha llegado a decir que se trata de "el principal riesgo de nuestra existencia", ya que podría significar el fin de la raza humana. Otros como Wozniak han tenido posiciones distintas, criticando su uso en el campo bélico, pero afirmando que los robots serían buenos para los humanos.

 

kal

Mantente al día con el boletín de El Universal