RegulaciónNoticia

¿Puede el Pentágono espiar estadounidenses con IA?

La disputa entre Anthropic y el Pentágono revela un vacío legal sobre vigilancia masiva con inteligencia artificial en Estados Unidos.

MIT Technology Review7 de marzo de 20268 min de lectura· Generado con IA

La disputa pública entre el Departamento de Defensa de Estados Unidos y la empresa de IA Anthropic ha expuesto una pregunta fundamental: ¿permite realmente la ley que el gobierno estadounidense realice vigilancia masiva con inteligencia artificial?

El conflicto surgió cuando el Pentágono quiso usar Claude, la IA de Anthropic, para analizar datos comerciales masivos de ciudadanos americanos. Anthropic se negó, demandando que su tecnología no fuera utilizada para vigilancia doméstica masiva ni armas autónomas. Como respuesta, el Pentágono designó a Anthropic como "riesgo de cadena de suministro", una etiqueta típicamente reservada para empresas extranjeras que amenazan la seguridad nacional.

Mientras tanto, OpenAI cerró un acuerdo que permitía al Pentágono usar su IA para "todos los propósitos legales", lenguaje que críticos consideraron demasiado amplio. Tras protestas masivas de usuarios, OpenAI enmendó su contrato para prohibir explícitamente la vigilancia doméstica.

El problema de fondo es un vacío legal significativo. Según Alan Rozenshtein, profesor de derecho en la Universidad de Minnesota, "mucho de lo que la gente normal consideraría búsqueda o vigilancia... no es considerado búsqueda o vigilancia por la ley".

Actualmente, el gobierno puede acceder legalmente a información pública (redes sociales, cámaras de vigilancia), datos obtenidos incidentalmente de extranjeros, y información comercial comprada a empresas privadas, incluyendo ubicación móvil e historial de navegación.

La IA "supercarga" estas capacidades, permitiendo agregar información aparentemente inocua para crear perfiles detallados a escala masiva. Las leyes actuales, escritas antes del internet y la IA, no regulan adecuadamente estas nuevas posibilidades.

Para América Latina, este caso establece precedentes importantes sobre cómo las potencias tecnológicas regulan la vigilancia algorítmica, influyendo potencialmente en marcos normativos regionales y en el uso de estas tecnologías por gobiernos latinoamericanos.

Fuente original: MIT Technology Review

Este resumen fue generado con asistencia de IA y revisado editorialmente por Algoré.

También en Regulación

UE acuerda prohibir IA que genere deepfakes sexuales sin consentimiento

14 de mar de 2026

California: Ley de verificación de edad crea barreras a libertad digital

13 de mar de 2026

Brasil regula el uso de IA en medicina con nueva resolución del CFM

13 de mar de 2026