La empresa Anthropic filtró por error más de 500.000 líneas de código sobre su herramienta de IA Claude. Esto presenta riesgos para las empresas y particulares que la usan. La información fugada podría comprometer el sistema de ejecución del agente, ya que quedó expuesta la lógica interna del software.

Claude, la IA de Anthropic, pierde credibilidad por sus fugas masivas de datos.
¿Qué pasó con Claude? Un rastreo por las fugas de información
La empresa Anthropic está en aprietos, luego de que se diera una importante fuga de código. Se trata de una filtración sobre aspectos técnicos de Claude, el recurso de inteligencia artificial que es su principal producto.
El problema tuvo su origen cuando la firma incluyó un archivo de depuración (.map) dentro de contenidos públicos destinados a desarrolladores. Con esto se podían restituir otros 3.000 archivos TypeScript con datos sensibles. ¿El resultado? Más de 500.000 líneas de código quedaron expuestas.
Estos datos permiten reconstruir el funcionamiento del agente de programación de Claude, así como procesos internos y aspectos clave para el software. Si bien esta filtración no incluyó credenciales ni información crítica de los usuarios, representa una falla grave para la confidencialidad de la empresa.
Para un ojo con conocimientos especializados, el código fugado de Claude es una ruta directa al corazón de Anthropic. Cuando se dio a conocer el fallo, durante los primeros días de abril, se especuló con que fuera obra de hackers. Sin embargo, más adelante la empresa confirmó que la filtración se debió a un error interno.
El problema fue una mala revisión del empaquetado, en la que ningún empleado de Anthropic reconoció el archivo .map junto con los contenidos ofrecidos abiertamente a desarrolladores. El código fugado serviría para dar con el arnés de Claude, conocido como la capa de control del agente, que es uno de los aspectos más sólidos del producto.
Claude se había hecho famoso por esta particularidad de su configuración. A diferencia de otros modelos de IA, el entorno del chat permite que se conecte con otras aplicaciones o software y les dé instrucciones. Los competidores seguramente hayan tomado nota de la información confidencial que Anthropic dejó salir.
¿La filtración de Claude Code podría afectar a sus usuarios?
Una de las primeras consecuencias de esta filtración masiva es el efecto sobre la reputación de Anthropic. Las falencias en los controles quedaron especialmente a la vista porque no es la única vez que sucede algo así. Días antes, en el mes de marzo, también se había filtrado el nuevo modelo, llamado “Mythos”.
Esa versión de la IA sería superior a las utilizadas por la empresa hasta el momento, pero no era la intención comunicar su lanzamiento al mercado. El hecho se debió a otro error de Anthropic.
En cuanto a la filtración del Claude Code, las consecuencias podrían llegar a los usuarios, en especial a las empresas. Por ejemplo, los atacantes podrían utilizar la información fugada para robar propiedad intelectual. Los hackers podrían utilizar la lógica interna para confundir al agente de Claude y pedirle que envíe fragmentos de código a servidores externos.
Además, si se conoce el código fuente de Claude, se podría obligar al agente a invocar funciones. De esta manera, mediante un código malicioso, la IA podría dejar una red corporativa en manos de un atacante remoto.
Otra consecuencia de la filtración es que se podrían crear clones maliciosos en el sistema npm. Es decir, los atacantes se podrían hacer pasar por dependencias de Anthropic para infectar las cadenas de suministro de las empresas.
La fuga implicó datos sobre Kairos, un componente de Claude relacionado con el almacenamiento de la memoria. Si una compañía estaba alimentando la IA con aprendizaje sobre flujos, esta información podría quedar sin resguardo. Por eso muchos clientes de Anthropic ya están blindando con medidas extra sus historiales.
Hasta el momento los usuarios de Claude, sean particulares o empresas, no han denunciado brechas de ciberseguridad. Pero es un momento bisagra en la relación entre Anthropic y sus clientes, y los expertos recomiendan ponerse a la defensiva. La firma podría enfrentar consecuencias legales por negligencia en el uso de la información.