La guerra entre Pentagon y Anthropic por límites éticos de la IA militar
El conflicto entre Anthropic y el Departamento de Guerra de EE.UU. revela la tensión entre ética empresarial y demandas militares en IA.
El enfrentamiento entre Anthropic y el Departamento de Guerra de Estados Unidos se ha convertido en el caso más emblemático de la tensión entre ética empresarial y demandas militares en el desarrollo de inteligencia artificial.
En enero de 2026, el Secretario de Guerra Pete Hegseth emitió una directiva exigiendo que los contratos con empresas de IA permitieran su uso sin restricciones. Cuando Dario Amodei, CEO de Anthropic, se negó a eliminar sus "líneas rojas" —prohibiciones de usar Claude para vigilancia masiva interna y armas totalmente autónomas—, el gobierno declaró a la empresa "riesgo para la seguridad nacional" y ordenó el cese de contratos federales.
El giro de las Big Tech hacia lo militar
El caso Anthropic no es aislado. Google eliminó discretamente en 2025 sus prohibiciones militares establecidas tras el controversial Proyecto Maven de 2018. OpenAI levantó su veto general a aplicaciones militares en 2024 y eliminó "IA segura" de su misión corporativa durante su reestructuración con fines de lucro. Meta puso sus modelos Llama a disposición del gobierno, mientras xAI de Musk firmó acuerdos sin restricciones.
Los riesgos técnicos del despliegue militar
El problema técnico de las "alucinaciones" —respuestas falsas presentadas con apariencia de coherencia— no puede eliminarse completamente de los sistemas de IA generativa. En contextos militares, estos errores pueden traducirse en identificación incorrecta de objetivos, con consecuencias irreversibles que van desde muertes civiles hasta escaladas de conflictos.
¿Ethics washing o resistencia genuina?
La postura de Anthropic genera interrogantes. Pese a sus líneas rojas públicas, Claude ha sido usado en operaciones militares a través de Palantir, incluida una contra Nicolás Maduro. La empresa también abandonó su "compromiso de seguridad" la misma semana del conflicto con el Pentágono.
Este conflicto evidencia una realidad preocupante: sin regulación gubernamental clara, las corporaciones tecnológicas difícilmente mantendrán límites éticos voluntarios cuando amenacen sus márgenes de beneficio o posición estratégica.
Fuente original: El País — Tecnología
Este resumen fue generado con asistencia de IA y revisado editorialmente por Algoré.