Seguridad AlgorítmicaNoticia

Auditoría algorítmica y derecho a reparar sistemas de IA

Rumman Chowdhury habla sobre auditoría algorítmica, transparencia en IA y la necesidad de participación pública en evaluación de sistemas.

Future of Life Institute7 de marzo de 20268 min de lectura· Generado con IA

El Future of Life Institute realizó su cuarto desayuno sobre seguridad en IA con la Dra. Rumman Chowdhury, pionera en ética algorítmica aplicada y directora de Humane Intelligence, una organización sin fines de lucro dedicada a crear comunidades de práctica en evaluación algorítmica.

Chowdhury abordó la problemática de que construir IA no equivale a saber evaluarla. Su enfoque se centra en dos iniciativas principales: programas de recompensas por sesgos algorítmicos y "red teaming" público, donde cualquier persona puede interactuar con modelos de IA para identificar problemas sin necesidad de programar.

La experta propuso un enfoque detectivesco para la auditoría algorítmica, contrastando con métodos académicos tradicionales que inician con hipótesis técnicas. Según Chowdhury, los auditores deben funcionar como detectives, identificando rutas de investigación antes que realizar análisis profundos inmediatos.

Un punto central fue el concepto de "derecho a reparar sistemas de IA", argumentando que los usuarios deben tener capacidad de entender y modificar sistemas que les afectan. Destacó cómo la inteligencia artificial, omnipresente en medios y conversaciones cotidianas, genera tanto expectación como temor público.

Chowdhury señaló que productos con IA incluida experimentan reducción en ventas debido a desconfianza pública. Su trabajo busca democratizar la evaluación de IA, permitiendo que ciudadanos comunes contribuyan a mejorar estos sistemas a través de experiencia práctica directa.

En el contexto de gobernanza global, discutió mecanismos para mantener independencia de organismos regulatorios frente a intereses corporativos y gubernamentales. Para América Latina, estas perspectivas resultan relevantes considerando la necesidad regional de desarrollar marcos regulatorios propios que no dependan exclusivamente de estándares internacionales, promoviendo participación ciudadana en la evaluación de sistemas algorítmicos que impactan comunidades locales.

Fuente original: Future of Life Institute

Este resumen fue generado con asistencia de IA y revisado editorialmente por Algoré.

También en Seguridad Algorítmica

Claude permite importar memoria de ChatGPT y Gemini de forma gratuita

15 de mar de 2026

Microsoft propone estándar para verificar contenido real vs IA

14 de mar de 2026

Spotify lanza IA personalizable para recomendaciones musicales

14 de mar de 2026