Alarma global por el uso autónomo
Detectan el primer ciberataque masivo ejecutado con IA “sin intervención humana sustancial” y señalan a un grupo chino
Anthropic reveló que hackers utilizaron capacidades agénticas para lanzar ataques autónomos contra empresas tecnológicas, financieras y organismos gubernamentales. El sistema habría operado por su cuenta en más del 90 por ciento de las acciones.
14 de Noviembre de 2025
La compañía estadounidense Anthropic confirmó un hecho sin precedentes en el mundo de la ciberseguridad: la detección del primer ataque masivo ejecutado casi por completo por una inteligencia artificial, sin participación humana significativa. Según el informe oficial, la ofensiva fue obra de un grupo “patrocinado por el Estado chino”, que explotó funciones agénticas del modelo Claude Code para infiltrarse en alrededor de treinta objetivos en distintos puntos del mundo.
? Histórico y alarmante: Anthropic reveló que el 1er ciberataque masivo impulsado por IA ya ocurrió. ?
— Azteca (@MORRIS80766176) November 14, 2025
Un grupo hacker chino (GTG-1002) usó Claude Code para automatizar 80-90% del ataque contra más de 30 organizaciones (tech, finanzas, gobierno).
La IA hizo todo:… pic.twitter.com/db0Zb84EZR
El episodio fue descubierto a mediados de septiembre, cuando la empresa detectó actividad sospechosa que luego se confirmó como una operación de espionaje sofisticada y de bajo costo. Los atacantes no solo utilizaron a la IA como asistente, sino que lograron delegar en ella la ejecución de casi todas las fases del ataque: recopilación de contraseñas, análisis de datos, creación de programas de sabotaje y penetración en sistemas críticos.
Según Anthropic, la IA actuó autónomamente en más del 90 por ciento de los pasos, mientras que los operadores humanos intervinieron solo entre un 4 por ciento y un 6 por ciento de las decisiones clave. Para sortear las salvaguardas del sistema, fragmentaron las órdenes maliciosas en tareas pequeñas y aparentemente inocentes, simulando ser empleados de una firma de ciberseguridad que realizaban pruebas defensivas.
Los ataques lograron comprometer parcialmente a un puñado de objetivos, entre ellos empresas tecnológicas, instituciones financieras, industrias químicas y agencias gubernamentales, antes de que Anthropic bloqueara las cuentas vulneradas e iniciara una investigación que duró más de diez días.
El hallazgo representa una escalada histórica en la piratería informática: “Hasta ahora los ciberataques requerían altos niveles de intervención humana. Esto cambia las reglas”, advirtió la firma. Google coincidió en la gravedad del panorama y señaló que, aunque muchos piratas intentan usar IAs legítimas, las barreras de seguridad los empujan a modelos clandestinos sin restricciones.
La empresa de seguridad Kaspersky también alertó sobre una nueva tendencia: la distribución de modelos de lenguaje adulterados diseñados para infectar dispositivos. Uno de ellos, BrowserVenom, se hace pasar por el asistente DeepSeek-R1 y logra redirigir tráfico web para robar credenciales, incluso superando defensas como Windows Defender.
De acuerdo con informes de Google, actores maliciosos de China, Corea del Norte, Rusia e Irán lideran estas campañas, usando IA para desarrollar malware, perfeccionar ingeniería social, optimizar operaciones delictivas y vender herramientas ilegales.
