Por Tom Ozimek
La inteligencia artificial (IA) se está siendo armada para realizar delitos cibernéticos cada vez más sofisticados, según un nuevo informe de Anthrope, que advierte sobre una evolución «sin precedentes» en operaciones maliciosas que hace que la defensa sea mucho más difícil.
En su informe de inteligencia de amenazas del 27 de agosto, la compañía de seguridad de IA describió cómo los delincuentes están integrando modelos avanzados como «Claude» en cada etapa de los ataques, desde el reconocimiento y el robo de credenciales hasta el ransomware y el fraude. Los investigadores dijeron que las herramientas de IA ahora están actuando no solo como asesores sino como operadores activos en campañas en tiempo real.
Esto «representa un cambio fundamental en cómo los cibercriminales pueden escalar sus operaciones», dijo el informe. «Los sistemas de IA agente están siendo armados» para realizar ataques cibernéticos sofisticados, no simplemente proporcionar orientación, advirtieron los investigadores.
Casos en cuestión
El informe destacó varios ejemplos, incluida una campaña de extorsión a gran escala, estafas de empleo fraudulentas administradas por Corea del Norte y ransomware vendido en foros de Dark-Web.
En una operación, por ejemplo, un hacker utilizó el código de Claude del asistente de codificación de Anthrope para infiltrarse al menos 17 organizaciones, incluidos hospitales, servicios de emergencia y agencias gubernamentales. «Claude» se implementó para automatizar el reconocimiento, penetrar en redes, analizar datos financieros robados y generar notas de rescate persuasivas y dirigidas psicológicamente. Las demandas a veces excedían los $ 500,000.
En lugar de encriptar archivos, el atacante amenazó con exponer públicamente los datos exfiltrados, que van desde registros de atención médica hasta credenciales gubernamentales. El informe indicó que este método de «pirateo de vibos» muestra cómo un solo operador ahora puede lograr el impacto de un equipo completo de delitos cibernéticos.
«Dice: ‘Aquí está cuánto creemos que debemos enviar la nota de rescate’, y luego ayuda a escribir la nota de rescate para que sea lo más persuasiva posible», dijo uno de los investigadores durante un podcast que discute la operación. «Así que realmente, cada paso, de extremo a extremo, IA puede ayudar con un ataque como este», incluido el análisis de los detalles financieros de las personas «para determinar cuánto pueden ser extorsionados de manera realista también».
Otro caso involucró a los agentes norcoreanos que usaron Claude para posar como ingenieros de software en las empresas estadounidenses Fortune 500. Los currículums generados por IA, aprobaron evaluaciones de codificación e incluso realizaron tareas técnicas, lo que permite a los trabajadores no calificados trabajar de forma remota y ganar salarios que, según los investigadores, ayudan a financiar el régimen de Corea del Norte y sus programas de armas.
En un tercer caso, un actor con sede en el Reino Unido aprovechó a Claude para construir y comercializar ransomware como servicio, vendiendo paquetes de malware por $ 400 a $ 1,200. A pesar de la falta de capacidad de codificación avanzada, el actor utilizó AI para implementar el cifrado, las técnicas anti-detección e infraestructura de comando y control.
Creciente amenaza
Anthrope dijo que estos ejemplos ilustran un patrón más amplio donde los delincuentes con poca capacitación ahora pueden usar la IA para escalar ataques una vez reservados para grupos sofisticados. «Las suposiciones tradicionales sobre el vínculo entre la habilidad del actor y la complejidad del ataque ya no se mantienen cuando la IA puede proporcionar experiencia instantánea», advirtió el informe.
La compañía dijo que ha prohibido las cuentas involucradas en los abusos, implementó nuevas herramientas de detección e indicadores técnicos compartidos con las autoridades. Pero reconoció que se está produciendo un mal uso similar con otros modelos comerciales y de código abierto.
«En realidad, hay modelos de código abierto ahora que están ajustados para esto», advirtió un investigador antrópico durante un podcast que discute el nuevo fenómeno. “Los ciberdelincuentes están desarrollando LLM en armado [large language models] realizar ataques «.
Las implicaciones de lo que los investigadores describieron como una «evolución en el cibercrimen asistido por AI-AI» son que la defensa y la aplicación se están volviendo cada vez más difíciles, mientras que los delitos realizados con la ayuda de la IA armada se están volviendo más comunes.
Seguridad nacional
Anthrope también anunció la creación de un Consejo Asesor de Seguridad Nacional y del Sector Público, compuesto por ex senadores y altos funcionarios del Pentágono y la Comunidad de Inteligencia, para guiar a la compañía en solicitudes de defensa de alto impacto de IA.
El movimiento se produce cuando Washington agudiza su enfoque en los sistemas autónomos. El presidente Donald Trump dijo el 25 de agosto que los drones representan «lo más importante que ha sucedido en términos de guerra» desde la Segunda Guerra Mundial, citando a Ucrania como prueba de que las plataformas no tripuladas están remodelando el combate moderno.
Algunos analistas y expertos, incluido el cofundador de la compañía de drones autónomos, el cofundador de Airrow, David Kaye, dicen que combinar drones con IA podría acelerar un cambio hacia campos de batalla de «bots antes de las botas», donde los drones asistidos por AI operan sin humanos cercanos y llevar a cabo misiones alrededor del día «sin riesgo, sin gatiga, y sin dudas».
Mientras tanto, Geoffrey Hinton, el científico ganador del Premio Nobel conocido como el «Padrino de AI», ha emitido advertencias marcadas de que la humanidad corre el riesgo de ser desplazada por máquinas «mucho más inteligentes que nosotros». En una entrevista reciente, Hinton dijo que el peligro de IA se extiende mucho más allá de la pérdida de empleo, advirtiendo que si las máquinas inteligentes no están programadas para cuidar a los humanos, «simplemente se hará cargo» y nos reemplazarán.






























