Seguridad AlgorítmicaNoticia

Anthropic filtra código de Claude Code y revela funciones no anunciadas

Una filtración accidental expuso el código fuente completo de Claude Code, revelando funciones secretas como mascotas virtuales y un asistente activo.

Hipertextual1 de abril de 20263 min de lectura· Generado con IA

Anthropic sufrió una filtración masiva cuando accidentalmente expuso el código fuente completo de Claude Code, su herramienta de programación con inteligencia artificial. Un investigador de seguridad descubrió que más de 512.000 líneas de código estaban disponibles públicamente en npm, la plataforma de distribución de software para desarrolladores.

Chaofan Shou, investigador de Solayer Labs, encontró un archivo de depuración incluido por error en el paquete oficial. En cuestión de horas, miles de desarrolladores habían descargado y comenzado a analizar el contenido, revelando una arquitectura mucho más sofisticada de lo esperado.

El código filtrado expone funciones no anunciadas que Anthropic planeaba lanzar próximamente. Entre ellas destaca BUDDY, un sistema de mascotas virtuales tipo Tamagotchi disponible en 18 especies (pato, dragón, capibara, entre otros) que aparecería como una burbuja junto al chat del usuario.

Otra función revelada es KAIROS, un asistente que opera continuamente en segundo plano, registrando observaciones durante el día y procesándolas por la noche para preparar el contexto de futuras sesiones. También se descubrió ULTRAPLAN, que habilita sesiones de planificación en la nube de hasta 30 minutos.

La filtración también reveló los nombres internos de modelos no anunciados: Capybara (Claude 4.6), Fennec (Opus 4.6) y Numbat, un modelo aún en pruebas.

El incidente se agrava porque algunos usuarios que actualizaron Claude Code a través de npm podrían haber instalado un troyano de acceso remoto. La vulnerabilidad existió entre las 0:21 y 3:29 UTC, obligando a la empresa a recomendar migrar al instalador nativo.

Esta filtración representa uno de los peores incidentes de seguridad de Anthropic en años recientes, exponiendo no solo la propiedad intelectual de la empresa sino también creando riesgos de seguridad para los usuarios, ya que los hackers ahora pueden estudiar el código para burlar sus mecanismos de protección.

Fuente original: Hipertextual

Este resumen fue generado con asistencia de IA y revisado editorialmente por Algoré.

También en Seguridad Algorítmica

Cómo crear tu propia IA especializada con Claude Projects

19 de abr de 2026

Google lanza Gemma 4: IA abierta que se ejecuta localmente en móviles

18 de abr de 2026

OpenCode: la alternativa de código abierto a Claude Code y Codex

18 de abr de 2026