Anthropic rechaza contrato militar y el Pentágono se vuelca a OpenAI
El Pentágono designó a Anthropic como riesgo tras rechazar su contrato de $200M. OpenAI lo aceptó y ChatGPT perdió 295% de usuarios.
El Pentágono oficialmente designó a Anthropic como un riesgo de cadena de suministro después de que ambas partes no lograran acordar el nivel de control que el ejército debería tener sobre sus modelos de IA, incluyendo su uso en armas autónomas y vigilancia masiva doméstica.
Tras el colapso del contrato de $200 millones de dólares con Anthropic, el Departamento de Defensa se dirigió a OpenAI, que aceptó el acuerdo. Sin embargo, esta decisión tuvo consecuencias inmediatas: las desinstalaciones de ChatGPT aumentaron un 295%, reflejando el rechazo público a la colaboración militar.
El caso expone las tensiones crecientes entre las empresas de IA y los gobiernos sobre el control y uso de estas tecnologías. Mientras que algunas compañías priorizan consideraciones éticas y de seguridad, otras están dispuestas a colaborar con el sector militar para acceder a contratos lucrativos.
Esta controversia ilustra un debate fundamental: ¿cuánto acceso sin restricciones debería tener el ejército a un modelo de IA? La pregunta cobra especial relevancia para América Latina, donde varios países están desarrollando marcos regulatorios para la IA y enfrentan presiones geopolíticas similares.
Para las startups que buscan contratos federales, el episodio sirve como advertencia sobre las implicaciones reputacionales y comerciales de las decisiones sobre clientes gubernamentales. La reacción del público ante OpenAI demuestra que los usuarios están dispuestos a abandonar servicios cuando perciben conflictos éticos.
El podcast también aborda otros temas relevantes como la valoración de $60 mil millones de Anduril y el concepto del "SaaSpocalypse", sugiriendo que la industria tecnológica atraviesa un momento de definición sobre el papel de la IA en aplicaciones militares y de vigilancia.
Fuente original: TechCrunch — Policy
Este resumen fue generado con asistencia de IA y revisado editorialmente por Algoré.