Geopolítica de la IANoticia

Microsoft, Google y Amazon mantienen Claude tras sanción del Pentágono

Las grandes tecnológicas confirman que sus clientes podrán seguir usando los modelos de IA de Anthropic para usos no militares.

TechCrunch — Policy7 de marzo de 20263 min de lectura· Generado con IA

Microsoft, Google y Amazon Web Services confirmaron que sus clientes podrán continuar utilizando los modelos de inteligencia artificial Claude de Anthropic, pese a que el Departamento de Defensa estadounidense designó a la startup como un "riesgo de cadena de suministro".

La controversia surgió después de que Anthropic se negara a otorgar acceso irrestricto de sus tecnologías al Pentágono para aplicaciones que la empresa considera peligrosas, como vigilancia masiva y armas completamente autónomas. Esta designación, típicamente reservada para adversarios extranjeros, prohíbe al Departamento de Defensa usar productos de Anthropic y requiere que empresas contratistas certifiquen que no utilizan sus modelos.

Microsoft fue la primera en aclarar la situación, explicando que sus abogados concluyeron que Claude puede permanecer disponible para clientes a través de plataformas como Office 365, GitHub y Microsoft AI Foundry, excepto para el Departamento de Defensa. Google siguió con una declaración similar, confirmando que los productos de Anthropic seguirán disponibles en Google Cloud para proyectos no relacionados con defensa.

AWS también reportó que sus clientes y socios pueden continuar usando Claude para cargas de trabajo no militares. Esta interpretación coincide con la postura del CEO de Anthropic, Dario Amodei, quien indicó que la designación solo aplica al uso directo de Claude en contratos específicos con el Departamento de Defensa.

Antropic ha prometido impugnar legalmente la designación, mientras que el crecimiento de usuarios de Claude continúa tras rechazar las demandas del Pentágono.

Para América Latina, este caso ilustra las tensiones emergentes entre el desarrollo de IA responsable y los intereses de seguridad nacional, un dilema que los países de la región deberán considerar al desarrollar sus propios marcos regulatorios para inteligencia artificial.

Fuente original: TechCrunch — Policy

Este resumen fue generado con asistencia de IA y revisado editorialmente por Algoré.

También en Geopolítica de la IA

IA transforma guerra en entretenimiento con paneles de inteligencia

15 de mar de 2026

El Pentágono presiona a Anthropic para uso militar sin restricciones

15 de mar de 2026

OpenAI permitirá usar su IA en ambientes militares clasificados de EE.UU.

14 de mar de 2026