Más Información

Pemex anuncia creación de la “Comisión Consultiva del Petróleo”; será presidida por Cuauhtémoc Cárdenas

Sheinbaum invita al rey Felipe VI de España a asistir al Mundial; la Casa Real destaca "relación fraternal" de amistad

Caen 7 mexicanos buscados por EU; Genaro "N", líder narcotraficante y José “N” abusador serial, entre los detenidos

New York Times expone denuncias de abuso sexual contra el activista César Chávez; colaboradores habrían ocultado los hechos

EU impone fianza de 15 mil dólares para visas de turismo; se aplicará a 12 países, ¿incluye a México?

EN VIVO Marcha de la CNTE en CDMX y plantón en el Zócalo; minuto a minuto de la movilización de este 18 de marzo

Alito Moreno "abre las puertas" del PRI a la sociedad civil; Rosario Robles se suma "para defender a México"

Sergio Mayer regresa a San Lázaro; ofrece disculpa por abandonar su curul y no descarta volver a pedir licencia
La firma de inteligencia artificial Anthropic plantea un "riesgo inaceptable" para las cadenas de suministro militares, insistió el gobierno de Estados Unidos el martes al justificar su decisión de designarla como peligrosa para el país.
El modelo de IA Claude de Anthropic ha estado en el punto de mira en las últimas semanas tanto por su supuesto uso en la identificación de objetivos para bombardeos estadounidenses en Irán como por la negativa de la compañía a que sus sistemas se utilicen para impulsar la vigilancia masiva en Estados Unidos o sistemas de armas letales totalmente autónomos.
Para justificar su decisión de cortar lazos con Anthropic en respuesta a una demanda de la empresa, el Departamento de Guerra (DoW) estadounidense dijo que le preocupaba que "permitir que continuara accediendo a la infraestructura de combate técnico y operacional del DoW introduciría un riesgo inaceptable en las cadenas de suministro del DoW", según un documento judicial al que tuvo acceso la AFP.
Lee también Impacto en México de más larga guerra con Irán
"Los sistemas de IA son especialmente vulnerables a la manipulación", añadió el gobierno en la presentación ante un tribunal federal de California.
"Anthropic podría intentar desactivar su tecnología o alterar de forma preventiva el comportamiento de su modelo antes o durante operaciones bélicas en curso, si Anthropic -a su discreción- considera que se están traspasando sus 'líneas rojas' corporativas", señaló.
La negativa de Anthropic a aceptar que su tecnología de IA pudiera ser empleada por los militares para "cualquier uso legal" planteaba, por tanto, un "riesgo inaceptable para la seguridad nacional", según el documento.
Lee también Renuncia asesor antiterrorismo de Trump; Irán "no presentaba una amenaza inminente", afirma
La clasificación de Anthropic como "riesgo para la cadena de suministro", que la firma ha impugnado en una causa contra el Pentágono y otros órganos del gobierno federal, implica en teoría que todos los proveedores del gobierno tendrían prohibido hacer negocios con la empresa.
Esta designación suele reservarse para organizaciones de países adversarios extranjeros, como el gigante tecnológico chino Huawei.
Otras grandes tecnológicas estadounidenses, como Microsoft, que a su vez utiliza el modelo Claude de Anthropic y abastece al ejército estadounidense, se han alineado con la compañía de IA.
Lee también Israel mata a dos altos mandos iraníes
"No es el momento de poner en riesgo el ecosistema de IA que la administración ha contribuido a impulsar", afirmó Microsoft en un escrito amicus curiae presentado ante el tribunal la semana pasada.
ss
Más Información
Noticias según tus intereses
ViveUSA
[Publicidad]
















