RegulaciónNoticia

Anthropic llevará al Pentágono a los tribunales por etiqueta de riesgo

La empresa de IA desafiará la decisión del Departamento de Defensa de Estados Unidos de clasificarla como riesgo en la cadena de suministro.

TechCrunch — Policy7 de marzo de 20263 min de lectura· Generado con IA

Anthropic, la empresa desarrolladora del asistente de IA Claude, anunció que llevará a los tribunales la decisión del Departamento de Defensa de Estados Unidos (DOD) de etiquetarla como "riesgo en la cadena de suministro". Su CEO, Dario Amodei, calificó esta designación como "jurídicamente infundada".

La controversia surgió por un desacuerdo sobre los límites en el uso militar de la IA. Mientras Anthropic estableció líneas rojas claras —prohibiendo el uso de sus sistemas para vigilancia masiva de ciudadanos estadounidenses y armas completamente autónomas— el Pentágono exigía acceso irrestricto para "todos los propósitos legales".

La designación como riesgo puede prohibir a una empresa trabajar con el Pentágono y sus contratistas. Sin embargo, Amodei aclaró que la medida afecta principalmente a contratos directos con el DOD, no a todos los clientes que puedan tener vínculos con el departamento.

La situación se complicó cuando se filtró un memo interno de Amodei que caracterizaba los acuerdos de OpenAI con el Departamento de Defensa como "teatro de seguridad". Por esta filtración, el CEO se disculpó públicamente, describiendo el documento como una "evaluación desactualizada" escrita en "un día difícil para la empresa".

Mientras tanto, OpenAI firmó un acuerdo para trabajar con el DOD en lugar de Anthropic, decisión que generó resistencia entre el personal de la empresa.

Pese al conflicto legal, Amodei confirmó que Anthropic continuará proporcionando sus modelos al DOD a "costo nominal" durante las operaciones militares en curso, incluyendo apoyo a operaciones estadounidenses en Irán.

Este caso refleja las tensiones crecientes entre las empresas de IA y los gobiernos sobre los límites éticos en aplicaciones militares, un debate que también resuena en América Latina, donde países como Brasil y México están desarrollando marcos regulatorios para la IA que incluyen consideraciones sobre uso militar y soberanía tecnológica.

Fuente original: TechCrunch — Policy

Este resumen fue generado con asistencia de IA y revisado editorialmente por Algoré.

También en Regulación

UE acuerda prohibir IA que genere deepfakes sexuales sin consentimiento

14 de mar de 2026

California: Ley de verificación de edad crea barreras a libertad digital

13 de mar de 2026

Brasil regula el uso de IA en medicina con nueva resolución del CFM

13 de mar de 2026