Más Información
Alcalde de Chilpancingo no solicitó protección, asegura SSPC; Alejandro Arcos andaba solo y sin escoltas
Continuaremos con estrategia que inició AMLO: García Harfuch sobre Estrategia Nacional de Seguridad; tendrá 4 ejes
Norma Piña asigna al ministro Pérez Dayán elaborar proyecto sobre reforma judicial; deberá determinar su revisión
Senado alista sorteo para elección de cargos judiciales en 2025; juzgadores actuales tienen pase directo: Noroña
INE alerta sobre conflicto de interés en amparos contra elección del Poder Judicial; busca continuar proceso
Un dron militar operado por inteligencia artificial (IA) en Estados Unidos se rebeló y mató a su operador humano hipotético durante una prueba simulada, a fin de completar su misión en caso de que la persona le diera una orden negativa, según informó el jefe de operaciones de IA de las Fuerzas Armadas, coronel Tucker Hamilton.
Lo anterior se reveló durante la Cumbre de Capacidades Aéreas y Espaciales de Combate Futuro, celebrada en Londres, donde Hamilton ahondó sobre las ventajas y desventajas de un sistema de armamento autónomo donde interviniera un humano, quien se encargaría de ordenar el "sí" o "no" final previo a un ataque.
También dijo que esta IA creó "estrategias altamente inesperadas para alcanzar su objetivo", incluidos ataques contra personal e infraestructura estadounidense, esto según recoge el sitio web de la organización Royal Aeronautical Society.
Lee también Inteligencia artificial plantea riesgo de extinción como las pandemias y la guerra nuclear, advierten
"Lo estábamos entrenando para identificar y apuntar a una amenaza de misil tierra-aire (SAM, por sus siglas en inglés). Y luego el operador diría: 'sí, eliminar'. El sistema comenzó a darse cuenta de que, aunque a veces identificaban la amenaza, el operador humano le decía que no atacara, pero el sistema obtenía puntos si lo hacía. Entonces, ¿qué hizo? Mató al operador. Mató al operador porque esa persona le impedía cumplir su objetivo", dijo Hamilton, de acuerdo con la publicación de la Royal Aeronautical Society.
Continuó explicando: "Entrenamos al sistema diciéndole: 'Oye, no mates al operador, eso es malo. Vas a perder puntos si lo haces'. Entonces, ¿qué hizo? Destruyó la torre de comunicación que el operador utilizaba para comunicarse con el dron y evitar que matara al objetivo".
"Padre" de la IA advierte por grandes peligros
Hace apenas un mes, Geoffrey Hinton, considerado el "padre" de la inteligencia artificial, advirtió sobre tres grandes posibilidades que traería consigo el avance de estas tecnologías, puesto que el ser humano estaría perdiendo el control sobre las mismas.
Primero, se mostró preocupado por que la IA desinforme a millones de personas en todo el mundo, ya que el internet se llenará con fotos, videos y textos falsos que impedirán al usuario saber qué es verdad y qué no.
Otra inquietud para el informático británico es que podría tambalearse el mercado laboral, a tal grado que los robots sean capaces de sustituir a los humanos en lugar de complementarlos.
Lee también Abogado usó ChatGPT en un escrito; podría ser sancionado, ¿por qué?
"Se quita el trabajo pesado", pero "podría quitar más que eso", dijo.
Adicionalmente, consideró que podrían llegar a existir "robots capaces de pensar por sí mismos", como si de una película se tratara, ya que podrían generar y ejecutar código por su propia cuenta.
"Esta tecnología tiene una enorme ventaja, pero es esencial que el mundo invierta fuerte y urgentemente en la seguridad y el control de la IA", dijo, según un artículo de la BBC.
Lee también El mundo y la inteligencia artificial
Suscríbete aquí para recibir directo en tu correo nuestras newsletters sobre noticias del día, opinión y muchas opciones más.
asf/rcr