EEUU usa chatbots de IA para seleccionar objetivos militares
El Pentágono integra IA generativa como ChatGPT y Claude para priorizar blancos de ataque, reduciendo tiempos de decisión militar.
El ejército estadounidense está utilizando sistemas de inteligencia artificial generativa, incluidos chatbots como ChatGPT, Claude y Grok, para clasificar listas de objetivos militares y hacer recomendaciones sobre cuáles atacar primero, según reveló un oficial del Departamento de Defensa a MIT Technology Review.
La revelación surge mientras el Pentágono enfrenta escrutinio por un ataque a una escuela iraní en marzo que dejó más de cien niños muertos. El oficial explicó que una lista de posibles objetivos puede alimentarse en un sistema de IA generativa que el Pentágono está desplegando en entornos clasificados. Los humanos pueden entonces solicitar al sistema que analice la información y priorice los objetivos considerando factores como la ubicación actual de aeronaves.
Esta tecnología se suma al sistema Maven, que desde 2017 usa IA más tradicional para analizar imágenes de drones e identificar objetivos. La diferencia clave es que la IA generativa añade una capa conversacional de chatbot que permite encontrar y analizar datos más rápidamente durante la toma de decisiones militares.
Los modelos aprobados para uso militar clasificado incluyen Claude de Anthropic, que reportadamente se usó en operaciones en Irán y Venezuela. Sin embargo, tras desacuerdos sobre restricciones de uso militar, el Pentágono clasificó a Anthropic como riesgo de cadena de suministro. OpenAI y xAI de Elon Musk han firmado acuerdos recientes para que sus modelos sean utilizados en contextos clasificados.
El uso de estos sistemas está bajo creciente escrutinio público, especialmente tras reportes de que Claude y Maven estuvieron involucrados en decisiones de objetivos en Irán. Una investigación preliminar encontró que datos desactualizados fueron parcialmente responsables del ataque a la escuela.
Para América Latina, esta revelación es particularmente relevante dado el historial de intervenciones militares estadounidenses en la región y el uso reportado de estos sistemas en operaciones en Venezuela. La automatización parcial de decisiones militares plantea interrogantes sobre supervisión humana y responsabilidad en conflictos que podrían afectar países latinoamericanos.
Fuente original: MIT Technology Review Brasil
Este resumen fue generado con asistencia de IA y revisado editorialmente por Algoré.