Pentágono revela uso de IA para decisiones militares y ataca a Claude
Funcionario del Departamento de Defensa de EE.UU. confirma que usarán ChatGPT y Grok para priorizar objetivos militares, mientras critican a Claude de Anthropic.
Un funcionario del Departamento de Defensa de Estados Unidos reveló que el ejército estadounidense podría utilizar sistemas de IA generativa como ChatGPT de OpenAI y Grok de xAI para clasificar objetivos militares y recomendar cuáles atacar primero.
Según el informe de MIT Technology Review, el proceso funcionaría alimentando una lista de posibles objetivos a un sistema de IA generativa que el Pentágono está desplegando para entornos clasificados. Los humanos podrían entonces solicitar al sistema que analice la información y priorice los objetivos, siendo responsables de verificar y evaluar los resultados y recomendaciones.
Paralelamente, el Director de Tecnología del Pentágono criticó duramente a Claude, el modelo de IA de Anthropic, afirmando que "contaminaría" la cadena de suministro de defensa debido a "preferencias políticas" integradas en el modelo. Esta declaración surge en medio de tensiones entre Anthropic y el gobierno estadounidense, especialmente después de que OpenAI llegara a un "compromiso" con el Departamento de Defensa.
El desarrollo también incluye información sobre cómo Ucrania está ofreciendo sus datos de campo de batalla para entrenar sistemas de IA, permitiendo a los aliados acceder a esta información para entrenar drones y otros vehículos aéreos no tripulados.
Esta revelación marca un punto de inflexión significativo en el uso militar de la inteligencia artificial, llevando la tecnología de chatbots comerciales directamente al ámbito de decisiones militares de alto riesgo. Para América Latina, estos desarrollos representan una nueva dimensión en la carrera armamentística tecnológica global, donde la IA se convierte en un factor determinante en la capacidad militar y la seguridad nacional.
La controversia también destaca las crecientes tensiones entre las empresas de IA y sus posiciones éticas frente a aplicaciones militares, un debate que tendrá implicaciones globales para la regulación de estas tecnologías.
Fuente original: MIT Technology Review
Este resumen fue generado con asistencia de IA y revisado editorialmente por Algoré.