Anthropic demanda al Pentágono por etiquetarla como riesgo de seguridad
La empresa de IA Claude impugna la designación del Departamento de Defensa tras negarse a permitir uso militar sin restricciones.
Anthropic, la empresa creadora del asistente de IA Claude, presentó dos demandas contra el Departamento de Defensa de Estados Unidos después de que la agencia la etiquetara como un "riesgo en la cadena de suministro" la semana pasada.
El conflicto surgió cuando Anthropic estableció dos líneas rojas firmes: no permitir que su tecnología fuera utilizada para vigilancia masiva de ciudadanos estadounidenses y no estar dispuesta a alimentar armas completamente autónomas sin supervisión humana en las decisiones de targeting y disparo.
El Secretario de Defensa Pete Hegseth argumentó que el Pentágono debería tener acceso a los sistemas de IA "para cualquier propósito legal" sin limitaciones de contratistas privados. La designación como riesgo de cadena de suministro, generalmente reservada para adversarios extranjeros, obliga a cualquier empresa que trabaje con el Pentágono a certificar que no utiliza los modelos de Anthropic.
En sus demandas presentadas en California y Washington D.C., Anthropic califica las acciones del Departamento de Defensa como "sin precedentes e ilegales", acusando a la administración de tomar represalias. La empresa argumenta que la Constitución no permite al gobierno usar su poder para castigar a una compañía por su "discurso protegido" sobre las limitaciones de sus servicios de IA y temas de seguridad algorítmica.
La administración Trump, incluyendo al Secretario Hegseth y al presidente, han criticado a Anthropic y su CEO Dario Amodei como "woke" y "radical" por sus llamados a medidas más estrictas de seguridad y transparencia en IA.
Como resultado del conflicto, la Administración de Servicios Generales terminó el contrato "OneGov" de Anthropic, eliminando la disponibilidad de sus servicios para las tres ramas del gobierno federal.
Este caso establece un precedente importante sobre los límites del poder gubernamental para controlar el desarrollo y uso de tecnologías de IA, especialmente cuando las empresas establecen restricciones éticas sobre aplicaciones militares.
Fuente original: TechCrunch — Policy
Este resumen fue generado con asistencia de IA y revisado editorialmente por Algoré.