Casos y JurisprudenciaNoticia

Falla estrategia del Pentágono contra Anthropic por guerra cultural en IA

Una jueza bloqueó la clasificación de Anthropic como riesgo de seguridad tras tweets de Trump y Hegseth que contradicen procedimientos legales.

MIT Technology Review Brasil12 de abril de 20264 min de lectura· Generado con IA

La disputa que expone los límites del poder gubernamental sobre la IA

Una decisión judicial en California puso freno a la ofensiva del Pentágono contra Anthropic, la empresa detrás del chatbot Claude, evidenciando cómo las declaraciones públicas pueden socavar estrategias legales en disputas tecnológicas.

El conflicto escaló cuando el gobierno estadounidense intentó clasificar a Anthropic como "riesgo para la cadena de suministros" tras negarse la empresa a modificar sus políticas de uso. La medida habría prohibido efectivamente que agencias federales utilicen Claude, una IA que paradójicamente el propio Pentágono había usado sin problemas durante 2025.

Tweets primero, abogados después

La jueza Rita Lin criticó duramente la estrategia gubernamental, señalando que Trump y el secretario de Defensa Pete Hegseth anunciaron medidas punitivas en redes sociales sin seguir los procedimientos legales requeridos. El presidente tuiteó sobre "malucos de izquierda" en Anthropic, mientras Hegseth prometió acciones que posteriormente los propios abogados del gobierno admitieron carecer de fundamento legal.

La magistrada concluyó que el gobierno buscaba "castigar públicamente a Anthropic por su ideología", violando potencialmente derechos constitucionales. Particularmente problemático fue que los funcionarios no pudieron demostrar que la empresa representara una amenaza real, incluso admitiendo carecer de evidencia sobre supuestos "kill switches".

Implications más amplias

Este caso ilustra tensiones crecientes entre gobiernos y empresas de IA sobre control y alineación ideológica. Para América Latina, donde varios países desarrollan marcos regulatorios para IA, el precedente sugiere límites importantes al poder estatal para presionar empresas tecnológicas por motivos políticos.

Aunque el gobierno apeló exitosamente, la batalla legal continúa. Mientras tanto, contratistas de defensa evitan trabajar con Anthropic, demostrando que existen mecanismos informales de presión incluso cuando fallan las vías legales formales.

Fuente original: MIT Technology Review Brasil

Este resumen fue generado con asistencia de IA y revisado editorialmente por Algoré.

También en Casos y Jurisprudencia

ClaudeKarma: la extensión que resuelve los límites de uso del chatbot

12 de abr de 2026

Amazon usa leyes penales contra herramientas de comparación de precios

10 de abr de 2026

Cómo las pequeñas empresas pueden aprovechar la Inteligencia Artificial

2 de abr de 2026