Casos y JurisprudenciaNoticia

ONG presentan amicus en caso Anthropic v. DOW sobre IA militar y civiles

Organizaciones de DDHH argumentan que restricciones de Anthropic permiten crímenes de guerra con IA en conflictos armados.

Access Now17 de marzo de 20263 min de lectura· Generado con IA

Cuatro organizaciones de derechos humanos presentaron un amicus brief en el caso Anthropic v. Departamento de Guerra (DOW) de Estados Unidos, argumentando que las limitaciones de la empresa de IA son insuficientes para prevenir crímenes de guerra.

El caso se centra en si el DOW puede sancionar a Anthropic por negarse a permitir que su IA Claude se use para armas letales autónomas y vigilancia masiva. Sin embargo, las organizaciones —Access Now, Tech Justice Law, Center for Constitutional Rights y Abolitionist Law Center— señalan que Claude ya asiste al DOW en operaciones que violan el derecho internacional humanitario.

El documento legal destaca cómo la IA acelera la "cadena de muerte" militar, reduciendo el proceso de identificar, rastrear y eliminar objetivos de semanas a segundos. Esta compresión temporal, impulsada por el enfoque de "la velocidad gana" del Secretario de Guerra Pete Hegseth, compromete gravemente la evaluación del daño civil.

Según el brief, esta aceleración ha contribuido a la devastadora pérdida de vidas civiles en Gaza e Irán, donde se estima que más de 1.200 civiles han muerto en campañas que utilizan Claude para bombardeos.

Las organizaciones argumentan que el uso actual de IA militar viola principios fundamentales del derecho internacional: distinción entre civiles y combatientes, proporcionalidad en ataques, y necesidad militar. Incluso sin plena autonomía, consideran que las decisiones humanas se convierten en meros "sellos de goma" de recomendaciones algorítmicas.

El caso establece precedentes cruciales sobre responsabilidad corporativa en tecnología militar. Las organizaciones advierten que tanto Anthropic como funcionarios estadounidenses enfrentan riesgos de procesamiento doméstico e internacional por crímenes de guerra.

Para América Latina, este caso es relevante dado el creciente uso de tecnologías de vigilancia y la importancia de establecer marcos legales que protejan derechos humanos frente a aplicaciones militares de IA, especialmente considerando el historial regional de violaciones en conflictos armados.

Fuente original: Access Now

Este resumen fue generado con asistencia de IA y revisado editorialmente por Algoré.

También en Casos y Jurisprudencia

Falla estrategia del Pentágono contra Anthropic por guerra cultural en IA

12 de abr de 2026

ClaudeKarma: la extensión que resuelve los límites de uso del chatbot

12 de abr de 2026

Amazon usa leyes penales contra herramientas de comparación de precios

10 de abr de 2026