Safety y RiesgosNoticia

Por qué la seguridad de IA necesita emprendedores según Ryan Kidd

El Co-Director de MATS explica por qué el emprendimiento es clave para abordar los riesgos de la inteligencia artificial.

BlueDot Impact Blog4 de marzo de 20262 min de lectura· Generado con IA

Ryan Kidd, Co-Director del programa Machine Learning Alignment & Theory Scholars (MATS), presenta una perspectiva innovadora sobre cómo abordar los desafíos de seguridad en inteligencia artificial: a través del emprendimiento.

En su análisis, Kidd argumenta que la investigación académica tradicional y las iniciativas gubernamentales, aunque importantes, no son suficientes para abordar la velocidad y complejidad de los riesgos emergentes en IA. Los emprendedores, con su capacidad de moverse rápidamente, iterar soluciones y crear productos escalables, pueden llenar vacíos críticos en el ecosistema de seguridad algorítmica.

El enfoque emprendedor permite desarrollar herramientas prácticas de seguridad, crear estándares de la industria y generar soluciones comercialmente viables que las empresas de IA puedan adoptar. Esto es particularmente relevante cuando los reguladores aún están definiendo marcos normativos y las compañías tecnológicas priorizan el desarrollo rápido sobre la seguridad.

Para América Latina, esta perspectiva cobra especial relevancia. La región enfrenta el desafío de regular y supervisar tecnologías de IA desarrolladas principalmente en otras jurisdicciones. Emprendedores locales podrían desarrollar soluciones de seguridad adaptadas a contextos latinoamericanos, crear capacidades técnicas regionales y generar alternativas que reduzcan la dependencia tecnológica.

Kidd enfatiza que los fundadores en AI Safety necesitan combinar conocimiento técnico profundo con visión empresarial, algo especialmente desafiante dado que muchos investigadores en seguridad de IA provienen del ámbito académico. Sin embargo, esta combinación es esencial para traducir investigación teórica en soluciones prácticas que puedan implementarse a gran escala.

La propuesta subraya la necesidad de ecosistemas de financiamiento especializados, incubadoras enfocadas en AI Safety y marcos regulatorios que incentiven la innovación responsable en seguridad algorítmica.

Fuente original: BlueDot Impact Blog

Este resumen fue generado con asistencia de IA y revisado editorialmente por Algoré.

También en Safety y Riesgos

Ejecutivo se suicida tras relación con IA Gemini de Google en Miami

OpenAI lanza GPT-5.4: su IA más avanzada puede controlar computadoras

6 de mar de 2026

IA automatiza pruebas matemáticas y amenaza ciberseguridad global

6 de mar de 2026