Seguridad AlgorítmicaNoticia

Microsoft propone estándar para verificar contenido real vs IA

La compañía evaluó 60 métodos para combatir deepfakes y propone estándares técnicos que empresas y plataformas podrían adoptar.

MIT Technology Review Brasil14 de marzo de 20264 min de lectura· Generado con IA

Microsoft presentó un plan integral para ayudar a distinguir entre contenido real y generado por inteligencia artificial, en respuesta al creciente problema de desinformación digital que incluye desde imágenes manipuladas compartidas por autoridades hasta videos de influencia rusa dirigidos a desalentar el alistamiento ucraniano.

El equipo de seguridad de IA de Microsoft evaluó 60 combinaciones diferentes de métodos de verificación, modelando cómo resistirían bajo diversos escenarios de manipulación. La propuesta incluye tres enfoques principales: documentación de procedencia (registro detallado del origen), marcas de agua invisibles para humanos pero detectables por máquinas, y firmas matemáticas únicas basadas en características del contenido.

Según Eric Horvitz, director científico de Microsoft, el trabajo fue motivado por legislación como la Ley de Transparencia en IA de California, que entrará en vigor en agosto, y el desarrollo acelerado de tecnologías que combinan video y voz con fidelidad impresionante.

Sin embargo, la implementación enfrenta obstáculos significativos. Una auditoría de 2023 encontró que solo el 30% de las publicaciones de prueba en plataformas como Instagram, LinkedIn y TikTok fueron correctamente etiquetadas como generadas por IA. Además, existe evidencia de que las personas son influenciadas por contenido de IA incluso cuando saben que es falso.

Hany Farid, experto en perícia digital de UC Berkeley, considera que aunque el plan no resolvería completamente el problema, podría eliminar una porción significativa del material engañoso. No obstante, advierte que si plataformas como Meta o X consideran que etiquetar contenido como "generado por IA" reduce el engagement, tendrán incentivos para no implementarlo.

El desafío es particularmente relevante para América Latina, donde las campañas de desinformación han impactado procesos electorales y debates públicos, haciendo crucial el desarrollo de herramientas confiables de verificación de contenido.

Fuente original: MIT Technology Review Brasil

Este resumen fue generado con asistencia de IA y revisado editorialmente por Algoré.

También en Seguridad Algorítmica

Claude permite importar memoria de ChatGPT y Gemini de forma gratuita

15 de mar de 2026

Spotify lanza IA personalizable para recomendaciones musicales

14 de mar de 2026

Claude de Anthropic integra gráficos automáticos en conversaciones

13 de mar de 2026