RegulaciónNoticia

Anthropic demanda al Pentágono por etiquetarla como riesgo de seguridad

La empresa de IA Claude impugna la designación del Departamento de Defensa tras negarse a permitir uso militar sin restricciones.

TechCrunch — Policy11 de marzo de 20263 min de lectura· Generado con IA

Anthropic, la empresa creadora del asistente de IA Claude, presentó dos demandas contra el Departamento de Defensa de Estados Unidos después de que la agencia la etiquetara como un "riesgo en la cadena de suministro" la semana pasada.

El conflicto surgió cuando Anthropic estableció dos líneas rojas firmes: no permitir que su tecnología fuera utilizada para vigilancia masiva de ciudadanos estadounidenses y no estar dispuesta a alimentar armas completamente autónomas sin supervisión humana en las decisiones de targeting y disparo.

El Secretario de Defensa Pete Hegseth argumentó que el Pentágono debería tener acceso a los sistemas de IA "para cualquier propósito legal" sin limitaciones de contratistas privados. La designación como riesgo de cadena de suministro, generalmente reservada para adversarios extranjeros, obliga a cualquier empresa que trabaje con el Pentágono a certificar que no utiliza los modelos de Anthropic.

En sus demandas presentadas en California y Washington D.C., Anthropic califica las acciones del Departamento de Defensa como "sin precedentes e ilegales", acusando a la administración de tomar represalias. La empresa argumenta que la Constitución no permite al gobierno usar su poder para castigar a una compañía por su "discurso protegido" sobre las limitaciones de sus servicios de IA y temas de seguridad algorítmica.

La administración Trump, incluyendo al Secretario Hegseth y al presidente, han criticado a Anthropic y su CEO Dario Amodei como "woke" y "radical" por sus llamados a medidas más estrictas de seguridad y transparencia en IA.

Como resultado del conflicto, la Administración de Servicios Generales terminó el contrato "OneGov" de Anthropic, eliminando la disponibilidad de sus servicios para las tres ramas del gobierno federal.

Este caso establece un precedente importante sobre los límites del poder gubernamental para controlar el desarrollo y uso de tecnologías de IA, especialmente cuando las empresas establecen restricciones éticas sobre aplicaciones militares.

Fuente original: TechCrunch — Policy

Este resumen fue generado con asistencia de IA y revisado editorialmente por Algoré.

También en Regulación

UE acuerda prohibir IA que genere deepfakes sexuales sin consentimiento

14 de mar de 2026

California: Ley de verificación de edad crea barreras a libertad digital

13 de mar de 2026

Brasil regula el uso de IA en medicina con nueva resolución del CFM

13 de mar de 2026