← Blog / Blog

El escándalo del Claude Code Leak: cómo un error humano expuso la seguridad de la IA

Alberto Pérez Alberto Pérez
· 3 abril 2026 · 6 min de lectura

Cover Image

El escándalo de la filtración del código Claude: colocando a la seguridad de la IA en el centro de atención

Tiempo estimado de lectura: 8 minutos

Puntos clave

  • Más de 513,000 líneas de código de Claude Code fueron expuestas accidentalmente.
  • La filtración ocurrió por un error humano al publicar un archivo .map sin ofuscar.
  • Posteriormente se crearon repositorios falsos con malware para aprovechar el incidente.
  • La comunidad de desarrolladores reaccionó con rapidez, recreando e investigando el código filtrado.
  • Se enciende la alerta sobre prácticas de seguridad en empresas de IA.

Tabla de contenidos

¿Qué sucedió?

El 31 de marzo de 2026, se produjo una filtración masiva del código de Claude Code de Anthropic, exponiendo alrededor de 513,000 líneas de código TypeScript sin ofuscar en 1906 archivos (ver
BleepingComputer y
Zscaler).
Según informes, todo comenzó cuando un investigador de seguridad notó que Anthropic había incluido de forma inadvertida el archivo de mapa de origen (.map) en la versión de paquete npm 2.1.88 de Claude Code.

Este archivo fue rápidamente descargado desde el bucket R2 de Cloudflare de Anthropic, replicado en GitHub y obtuvo docenas de miles de forks en cuestión de horas. La propia Anthropic confirmó posteriormente que la filtración se debió a un paso manual omitido en el proceso de implementación, lo que atribuyeron a un error humano en lugar de a una brecha de seguridad (ver
Times of India).
Intentaron eliminar copias del código de GitHub, pero desencadenaron miles de solicitudes de eliminación que afectaron a repositorios ajenos
(TechCrunch).
Afortunadamente, no se expusieron datos sensibles de clientes ni credenciales
(Axios).

Los detalles técnicos

El código filtrado reveló componentes clave como la orquestación del agente, la capa de permisos y detalles de la arquitectura. Claude Code es un agente de IA basado en terminal de Anthropic, diseñado para ejecutar tareas de codificación directamente en la terminal
(más información),
permitiendo interacción con el sistema, manejo de llamadas a la API de LLM, integración con MCP y memoria persistente.

Dentro del material filtrado, también se encontraron banderas de funciones no liberadas, como la capacidad de Claude de revisar actividades pasadas para mejorar su rendimiento futuro, un «asistente persistente» que trabaja en segundo plano y funcionalidades remotas para administrar Claude desde dispositivos móviles o navegadores alternativos.

Implicaciones de seguridad y explotación de malware

La comunidad de ciberdelincuentes capitalizó de inmediato el suceso, creando repositorios falsos de GitHub para atraer a los usuarios que buscaban la filtración real. Dichos repositorios suministraban un archivo 7-Zip maligno con ClaudeCode_x64.exe, un dropper en Rust que desplegaba Vidar (herramienta de robo de información) y GhostSocks (proxy de tráfico de red).
Varias fuentes, como Zscaler, han alertado sobre el incremento en campañas maliciosas relacionadas.

La respuesta de la comunidad

En cuestión de horas, desarrolladores comenzaron a analizar y recrear partes del código, y surgieron proyectos derivados como «Claw Code» en Python, creado por Sigrid Jin y Yeachan Heo (mencionados en
BusinessInsider).
El repositorio alcanzó cifras récord de visualizaciones en X (antes Twitter) con cerca de 22 millones de vistas en 24 horas
(YouTube).

El contexto más amplio

Este incidente destaca la segunda filtración accidental de origen en Anthropic en apenas una semana, sembrando dudas sobre los protocolos de seguridad operacional en una empresa que se ha autodenominado líder en seguridad de IA
(ver nota).
Aunque la compañía sostiene que está implementando medidas para prevenir incidentes futuros, también ha declarado que nadie fue despedido por este error
(Times of India).

El caso de la filtración de Claude Code pone de manifiesto que los errores humanos pueden acarrear enormes consecuencias de seguridad en el ámbito de la IA. Conforme la inteligencia artificial asume un rol más preponderante en las empresas y la vida cotidiana, la protección contra posibles fugas y usos malintencionados
(más detalles)
es cada vez más primordial.

Preguntas frecuentes (FAQ)

¿Qué es Claude Code?

Claude Code es un agente de IA desarrollado por Anthropic para ejecutar tareas de codificación directamente en la terminal. Cuenta con interacción directa al sistema, manejo de llamadas a la API de LLM e integración con MCP, entre otras características.

¿Se expusieron datos sensibles de usuarios?

De acuerdo con el comunicado oficial de Anthropic y distintos reportes, no se filtraron credenciales personales ni información confidencial de los clientes. El problema se debió a un error humano y no a una brecha de seguridad más amplia.

¿Cuál fue la principal lección de este incidente?

La principal lección radica en que los errores humanos pueden tener consecuencias masivas cuando se trata de seguridad en IA. Además, la rapidez de la respuesta de la comunidad y el aprovechamiento por parte de ciberdelincuentes son dos caras que ilustran la importancia de la gestión de riesgos en sistemas críticos.

¿Cómo respondió la comunidad desarrolladora?

La comunidad analizó y recreó el código filtrado, aprovechando la oportunidad para conocer más acerca de la arquitectura de Claude Code. Paralelamente, surgieron repositorios malintencionados en GitHub que fueron reconocidos por expertos en ciberseguridad y rápidamente reportados.

}

Alberto Pérez
Escrito por
Alberto Pérez
Consultor de automatización e IA aplicada a negocios reales. Ayudo a empresas a digitalizar procesos y ahorrar tiempo usando herramientas como n8n, Make y modelos de IA.
Saber más sobre mí →

¿Te ha resultado útil?

Si tienes un proyecto en mente o quieres hablar sobre lo que has leído, escríbeme.

Contactar →