Geopolítica de la IANoticia

El Pentágono presiona a Anthropic para uso militar sin restricciones

El Departamento de Defensa amenaza a la empresa de IA por negarse a permitir uso en armas autónomas y vigilancia tras incidente en Venezuela.

Electronic Frontier Foundation15 de marzo de 20263 min de lectura· Generado con IA

El Secretario de Defensa ha lanzado un ultimátum a la empresa de inteligencia artificial Anthropic, intentando presionarla para que ponga su tecnología a disposición del ejército estadounidense sin restricciones de uso. La compañía debería mantenerse firme en sus principios y rechazar el uso de su tecnología para armas autónomas y vigilancia.

Según reportes, el Departamento de Defensa ha amenazado con etiquetar a Anthropic como un "riesgo en la cadena de suministro", una marca que generalmente se reserva para empresas que hacen negocios con países bajo escrutinio federal como China. Esta etiqueta significaría que el Pentágono no haría negocios con firmas que utilicen la IA de Anthropic en trabajos de defensa.

La controversia surgió en enero de 2026 cuando, a través de una asociación con el contratista de defensa Palantir, Anthropic sospechó que su IA había sido utilizada durante el ataque del 3 de enero contra Venezuela. Este incidente ilustra cómo las tecnologías de IA desarrolladas por empresas privadas pueden ser empleadas en operaciones militares que afectan directamente a países latinoamericanos.

El CEO de Anthropic, Dario Amodei, reiteró que la vigilancia contra ciudadanos estadounidenses y los sistemas de armas autónomas eran "líneas rojas" que no debían cruzarse, requiriendo "extremo cuidado y escrutinio combinado con salvaguardas para prevenir abusos".

Para América Latina, este caso establece un precedente crucial sobre cómo las empresas tecnológicas pueden resistir presiones gubernamentales para usos militares de sus productos. La región, históricamente afectada por intervenciones militares, tiene un interés particular en que las compañías de IA mantengan estándares éticos sólidos y rechacen aplicaciones que puedan facilitar operaciones de vigilancia o conflictos armados.

La presión gubernamental no debería ser motivo para que las empresas tecnológicas abandonen sus compromisos públicos con los derechos humanos y las libertades civiles.

Fuente original: Electronic Frontier Foundation

Este resumen fue generado con asistencia de IA y revisado editorialmente por Algoré.

También en Geopolítica de la IA

IA transforma guerra en entretenimiento con paneles de inteligencia

15 de mar de 2026

OpenAI permitirá usar su IA en ambientes militares clasificados de EE.UU.

14 de mar de 2026

La IA física impulsa la nueva ventaja competitiva en manufactura

14 de mar de 2026