Casos y JurisprudenciaNoticia

Pentágono dice que Anthropic es un 'riesgo inaceptable' para la seguridad

El Departamento de Defensa considera que las 'líneas rojas' de Anthropic sobre uso militar de IA representan una amenaza de seguridad nacional.

TechCrunch — Policy19 de marzo de 20263 min de lectura· Generado con IA

El Departamento de Defensa de Estados Unidos declaró que Anthropic representa un "riesgo inaceptable para la seguridad nacional", en respuesta a las demandas de la compañía de IA que desafían su clasificación como riesgo en la cadena de suministro.

El conflicto surgió tras un contrato de $200 millones que Anthropic firmó con el Pentágono para desplegar su tecnología en sistemas clasificados. Durante las negociaciones, la empresa estableció límites claros: no quería que sus sistemas de IA fueran utilizados para vigilancia masiva de estadounidenses ni para decisiones de targeting o disparo de armas letales.

En un documento de 40 páginas presentado ante un tribunal federal de California, el DOD argumenta que Anthropic podría "intentar deshabilitar su tecnología o alterar preventivamente el comportamiento de su modelo" durante "operaciones de combate" si considera que se cruzan sus "líneas rojas" corporativas.

Chris Mattei, abogado especialista en Primera Enmienda y exfiscal del Departamento de Justicia, criticó la posición del gobierno, señalando que no existe investigación que respalde las preocupaciones del DOD sobre una posible desactivación de los modelos de IA durante operaciones militares. "El gobierno se basa completamente en imaginaciones conjeturales y especulativas para justificar un paso legal muy serio", argumentó.

Varias empresas tecnológicas, incluyendo OpenAI, Google y Microsoft, así como grupos de derechos legales, han presentado escritos amicus en apoyo a Anthropic. La compañía acusa al DOD de violar sus derechos de Primera Enmienda y castigarla por motivos ideológicos.

Este caso establece un precedente importante sobre los límites éticos que las empresas de IA pueden imponer al uso militar de sus tecnologías, un debate que resuena globalmente mientras gobiernos de América Latina también evalúan marcos regulatorios para la IA en aplicaciones de seguridad y defensa. La audiencia para la solicitud de medida cautelar de Anthropic está programada para el próximo martes.

Fuente original: TechCrunch — Policy

Este resumen fue generado con asistencia de IA y revisado editorialmente por Algoré.

También en Casos y Jurisprudencia

Falla estrategia del Pentágono contra Anthropic por guerra cultural en IA

12 de abr de 2026

ClaudeKarma: la extensión que resuelve los límites de uso del chatbot

12 de abr de 2026

Amazon usa leyes penales contra herramientas de comparación de precios

10 de abr de 2026