¿La controversia Pentagon-Anthropic alejará startups de contratos militares?
Las tensiones entre el Pentágono y empresas de IA como Anthropic y OpenAI generan dudas sobre los riesgos de trabajar con el gobierno estadounidense.
En poco más de una semana, el ecosistema de inteligencia artificial vivió una serie de eventos que podrían redefinir la relación entre startups tecnológicas y contratos gubernamentales de defensa.
Todo comenzó cuando se rompieron las negociaciones entre el Pentágono y Anthropic sobre el uso de la tecnología Claude. La administración Trump posteriormente designó a Anthropic como un "riesgo de cadena de suministro", lo que llevó a la empresa a anunciar acciones legales contra esta designación.
Mientras tanto, OpenAI aprovechó la oportunidad para anunciar rápidamente su propio acuerdo con el Pentágono. Esta decisión generó una fuerte reacción negativa entre los usuarios: las desinstalaciones de ChatGPT aumentaron 295%, mientras que Claude de Anthropic alcanzó la cima de las descargas en App Store. Incluso un ejecutivo de OpenAI renunció, expresando preocupaciones sobre la rapidez del anuncio sin las salvaguardas apropiadas.
Lo más preocupante del caso, según expertos del podcast Equity de TechCrunch, es que el Pentágono intentó cambiar los términos de un contrato existente. Este comportamiento es inusual en el ámbito gubernamental, donde los contratos suelen tomar mucho tiempo en negociarse y raramente se modifican una vez establecidos.
El conflicto también incluye elementos personales, con reportes de tensiones entre el CEO de Anthropic, Dario Amodei, y Emil Michael, actual CTO del Departamento de Defensa y ex-ejecutivo de Uber.
Para América Latina, este caso es relevante por dos razones. Primero, muchas startups regionales aspiran a expandirse al mercado estadounidense, incluyendo contratos gubernamentales. Segundo, ilustra cómo las decisiones de política tecnológica de Estados Unidos pueden afectar la disponibilidad y términos de acceso a tecnologías de IA avanzadas en la región.
La controversia plantea preguntas fundamentales sobre el equilibrio entre innovación tecnológica, seguridad nacional y consideraciones éticas en el desarrollo de IA militar.
Fuente original: TechCrunch — Policy
Este resumen fue generado con asistencia de IA y revisado editorialmente por Algoré.