San Francisco.- Microsoft mostró su respaldo a Anthropic al pedir a un tribunal federal que bloquee la designación del gobierno del presidente Donald Trump, que determinó que la empresa de inteligencia artificial (IA) es un riesgo para la cadena de suministro.
En una presentación judicial, Microsoft impugna la medida que tomó la semana pasada el secretario de Defensa, Pete Hegseth, para excluir a Anthropic del trabajo militar al calificar sus productos de IA como una amenaza para la seguridad nacional.
El Pentágono tomó la medida contra Anthropic tras una disputa inusualmente pública por la negativa de la empresa a permitir un uso militar sin restricciones de Claude, su modelo de IA. Trump también afirmó que había ordenado a todas las agencias federales que dejaran de usar Claude.
“El uso de una designación de riesgo para la cadena de suministro para abordar una disputa contractual puede acarrear graves efectos económicos que no redundan en el interés público”. señaló Microsoft, un importante contratista del gobierno, en su presentación del martes ante el tribunal federal de San Francisco, donde Anthropic demandó al gobierno de Trump el lunes.
La acción del Pentágono “obliga a los contratistas del gobierno a cumplir con directrices vagas y mal definidas que nunca se habían aplicado públicamente contra una empresa estadounidense”, se indica en el escrito legal de Microsoft.
Lee también Pentágono da ultimátum a Anthropic, exige uso militar sin restricciones de su IA antes del viernes

En el documento se solicita que un juez ordene el levantamiento temporal de la designación para permitir una “discusión más razonada”.
El Pentágono declinó hacer comentarios y dijo que no se pronuncia sobre asuntos en litigio.
Microsoft también manifestó su acuerdo con las dos líneas rojas éticas de Anthropic que fueron un punto de fricción en las negociaciones del contrato.
Lee también Anthropic y Open AI: ¿IA con ética?
“Microsoft también cree que la IA estadounidense no debe usarse para realizar vigilancia masiva dentro del país ni para iniciar una guerra sin control humano”, manifestó la empresa. “Esta postura es coherente con la ley y cuenta con un amplio respaldo de la sociedad estadounidense, como reconoce el gobierno”.
La presentación judicial del gigante del software se sumó a otras en apoyo a Anthropic, entre ellas, una de un grupo de desarrolladores de IA de Google y OpenAI, y otra de un conjunto de organizaciones como el Cato Institute y la Electronic Frontier Foundation.
mcc
Noticias según tus intereses
[Publicidad]
[Publicidad]












