Google denuncia un aumento preocupante de ciberdelincuentes que impulsan sus operaciones a través de la IA
Un nuevo informe publicado por Google Threat Intelligence Group (GTIG) recoge que actores procedentes de China, Corea del Norte, Rusia e Irán están intentando usar la IA para todo. Como indicaciones de ingeniería social.

Por si había alguna duda a pocas semanas del tercer aniversario de ChatGPT, la inteligencia artificial (IA) ha venido para quedarse. Pese a las cosas muy buenas que tiene y que están haciendo que cada vez más usuarios la utilicen en su día a día, el miedo a la privacidad de los datos y la desconfianza en los servidores de algunas compañías como OpenAI han mantenido un temor que, es cierto, ha ido a menos.
Pero Google ha reflejado en un nuevo informe publicado este miércoles una situación preocupante. Con el agua de los ciberdelincuentes, han descubierto que ahora utilizan estos agentes inteligentes para sus fines particulares.
En el estudio, publicado este miércoles por Google Threat Intelligence Group (GTIG), se advierte de que los investigadores han observado cómo atacan las plataformas de IA y refleja un cambio de tendencia en el último año.
Desde ahora, ya no usan estas herramientas sólo para hacer crecer su productividad y la emplean también en sus operaciones de malware (software malicioso diseñado para dañar sistemas informáticos) con IA integrada.
Los investigadores de Google aseguran que estos ciberdelincuentes hacen un mal uso de la IA y usan herramientas que logran modificar su comportamiento de forma dinámica. De hecho, avisan de que los agentes de amenazas actúan respaldados por gobiernos y otros ciberdelincuentes que están integrando IA.
Ponen de ejemplo varios actores procedentes. En concreto, hablan de China, Corea del Norte, Rusia e Irán, a las que acusa de usar estos sistemas inteligentes para todo. Desde ejecución de malware a indicaciones de ingeniería social o mejora de sus operaciones.
Principales conclusiones
En el informe, Google ha detallado, una a una, todas las medidas que ha ejecutado con el fin de frenar la expansión de estas actividades maliciosas. Entre ellas, la desactivación de recursos o el uso de inteligencia para reforzar su modelo y estar mejor protegido.
Entre las principales conclusiones del informe, los investigadores apuntan a que se da un primer uso de IA en software malicioso. En concreto, familias de malware, como Promptflux o Promptsleal, que usan grandes modelos de lenguaje durante la ejecución.
Algunas de las prácticas llevaban 'ingeniería social' para solventar las barreras de seguridad. Por ejemplo, agentes que se hacen pasar por estudiantes que practican ejercicios como 'captura la bandera'. Intentan persuadir a Gemini para facilitarles información que suele estar bloqueada.
En el estudio, también explican que el secuestro de datos y la extorsión multifacética combinados van a seguir siendo la categoría más perjudicial de ciberdelincuencia en el apartado financiero.
Respecto a Europa, los investigadores apuntan que debe prepararse para una escalada de la guerra híbrida, con ciberataques físicos dirigidos contra infraestructuras críticas, como ocurrió hace unas semanas con varios aeropuertos europeos.
Billy Leonard, Tech Lead, Google Threat Intelligence Group, asegura que aunque los adversarios "están intentando utilizar las plataformas de IA convencionales, las barreras de seguridad han llevado a muchos a recurrir a modelos disponibles en el mercado negro".
"Estas herramientas no tienen restricciones y pueden ofrecer una ventaja significativa a los menos avanzados. Actualmente hay varias disponibles y esperamos que reduzcan la barrera de entrada para muchos delincuentes", razona.
