RegulaciónNoticia

Trabajadores tech defienden a Anthropic tras sanción del Pentágono

Cientos de empleados de OpenAI, IBM y otras firmas firman carta contra designación de Anthropic como riesgo de cadena de suministro.

TechCrunch — Policy4 de marzo de 20263 min de lectura· Generado con IA

Cientos de trabajadores de empresas tecnológicas, incluyendo OpenAI, IBM, Slack y Salesforce Ventures, firmaron una carta abierta pidiendo al Departamento de Defensa de Estados Unidos retirar la designación de Anthropic como "riesgo de cadena de suministro".

El conflicto surgió cuando Anthropic se negó a dar acceso irrestricto de sus sistemas de IA al ejército estadounidense. La empresa estableció dos límites claros: no permitir que su tecnología fuera usada para vigilancia masiva de ciudadanos americanos ni para armas autónomas que pudieran atacar sin supervisión humana.

Aunque el Pentágono aseguró no tener planes de usar la IA para estos fines, se negó a aceptar limitaciones contractuales de un proveedor. Tras el rechazo del CEO Dario Amodei a llegar a un acuerdo con el Secretario de Defensa Pete Hegseth, el presidente Trump ordenó a las agencias federales dejar de usar tecnología de Anthropic en seis meses.

La designación como "riesgo de cadena de suministro" —normalmente reservada para adversarios extranjeros— prohibiría a cualquier empresa que trabaje con el Pentágono hacer negocios con Anthropic. Sin embargo, esta designación aún requiere una evaluación de riesgo completa y notificación al Congreso.

La carta denuncia que "castigar a una empresa americana por declinar cambios contractuales envía un mensaje claro: acepta los términos que el gobierno demande o enfrenta represalias". Los firmantes ven esto como un precedente peligroso de retaliación gubernamental.

Paradójicamente, momentos después del ataque de Trump contra Anthropic, OpenAI anunció su propio acuerdo con el Pentágono, pese a que su CEO Sam Altman había declarado tener las mismas líneas rojas que Anthropic.

Este caso ilustra las tensiones crecientes entre la innovación tecnológica y los intereses de seguridad nacional, estableciendo precedentes que podrían influir en cómo otros países —incluyendo los latinoamericanos— regulan la relación entre empresas de IA y sus gobiernos.

Fuente original: TechCrunch — Policy

Este resumen fue generado con asistencia de IA y revisado editorialmente por Algoré.

También en Regulación

Transparencia y explicabilidad en IA: Principio 1.3 de la OCDE

371 científicos alertan sobre los riesgos de verificar edad en internet

6 de mar de 2026

Data & Society presenta declaración sobre uso de IA en gobierno federal de EE.UU.

5 de mar de 2026