Anthropic llevará al Pentágono a los tribunales por etiqueta de riesgo
La empresa de IA desafiará la decisión del Departamento de Defensa de Estados Unidos de clasificarla como riesgo en la cadena de suministro.
Anthropic, la empresa desarrolladora del asistente de IA Claude, anunció que llevará a los tribunales la decisión del Departamento de Defensa de Estados Unidos (DOD) de etiquetarla como "riesgo en la cadena de suministro". Su CEO, Dario Amodei, calificó esta designación como "jurídicamente infundada".
La controversia surgió por un desacuerdo sobre los límites en el uso militar de la IA. Mientras Anthropic estableció líneas rojas claras —prohibiendo el uso de sus sistemas para vigilancia masiva de ciudadanos estadounidenses y armas completamente autónomas— el Pentágono exigía acceso irrestricto para "todos los propósitos legales".
La designación como riesgo puede prohibir a una empresa trabajar con el Pentágono y sus contratistas. Sin embargo, Amodei aclaró que la medida afecta principalmente a contratos directos con el DOD, no a todos los clientes que puedan tener vínculos con el departamento.
La situación se complicó cuando se filtró un memo interno de Amodei que caracterizaba los acuerdos de OpenAI con el Departamento de Defensa como "teatro de seguridad". Por esta filtración, el CEO se disculpó públicamente, describiendo el documento como una "evaluación desactualizada" escrita en "un día difícil para la empresa".
Mientras tanto, OpenAI firmó un acuerdo para trabajar con el DOD en lugar de Anthropic, decisión que generó resistencia entre el personal de la empresa.
Pese al conflicto legal, Amodei confirmó que Anthropic continuará proporcionando sus modelos al DOD a "costo nominal" durante las operaciones militares en curso, incluyendo apoyo a operaciones estadounidenses en Irán.
Este caso refleja las tensiones crecientes entre las empresas de IA y los gobiernos sobre los límites éticos en aplicaciones militares, un debate que también resuena en América Latina, donde países como Brasil y México están desarrollando marcos regulatorios para la IA que incluyen consideraciones sobre uso militar y soberanía tecnológica.
Fuente original: TechCrunch — Policy
Este resumen fue generado con asistencia de IA y revisado editorialmente por Algoré.