Pentágono dice que Anthropic es un 'riesgo inaceptable' para la seguridad
El Departamento de Defensa considera que las 'líneas rojas' de Anthropic sobre uso militar de IA representan una amenaza de seguridad nacional.
El Departamento de Defensa de Estados Unidos declaró que Anthropic representa un "riesgo inaceptable para la seguridad nacional", en respuesta a las demandas de la compañía de IA que desafían su clasificación como riesgo en la cadena de suministro.
El conflicto surgió tras un contrato de $200 millones que Anthropic firmó con el Pentágono para desplegar su tecnología en sistemas clasificados. Durante las negociaciones, la empresa estableció límites claros: no quería que sus sistemas de IA fueran utilizados para vigilancia masiva de estadounidenses ni para decisiones de targeting o disparo de armas letales.
En un documento de 40 páginas presentado ante un tribunal federal de California, el DOD argumenta que Anthropic podría "intentar deshabilitar su tecnología o alterar preventivamente el comportamiento de su modelo" durante "operaciones de combate" si considera que se cruzan sus "líneas rojas" corporativas.
Chris Mattei, abogado especialista en Primera Enmienda y exfiscal del Departamento de Justicia, criticó la posición del gobierno, señalando que no existe investigación que respalde las preocupaciones del DOD sobre una posible desactivación de los modelos de IA durante operaciones militares. "El gobierno se basa completamente en imaginaciones conjeturales y especulativas para justificar un paso legal muy serio", argumentó.
Varias empresas tecnológicas, incluyendo OpenAI, Google y Microsoft, así como grupos de derechos legales, han presentado escritos amicus en apoyo a Anthropic. La compañía acusa al DOD de violar sus derechos de Primera Enmienda y castigarla por motivos ideológicos.
Este caso establece un precedente importante sobre los límites éticos que las empresas de IA pueden imponer al uso militar de sus tecnologías, un debate que resuena globalmente mientras gobiernos de América Latina también evalúan marcos regulatorios para la IA en aplicaciones de seguridad y defensa. La audiencia para la solicitud de medida cautelar de Anthropic está programada para el próximo martes.
Fuente original: TechCrunch — Policy
Este resumen fue generado con asistencia de IA y revisado editorialmente por Algoré.