El uso de ChatGPT y otras aplicaciones potenciadas por la inteligencia artificial para fines maliciosos no es nuevo. Pero ahora Microsoft y OpenAI han divulgado una investigación sobre cómo los principales grupos de hackers afiliados a Rusia, China, Irán y Corea del Norte están sacándoles provecho para mejorar sus ciberataques.

De acuerdo con ambas compañías, los piratas informáticos usan ChatGPT y los modelos de lenguaje de gran tamaño (LLM) como "herramientas de productividad" para generar nuevos ataques. Y si bien los investigadores concluyeron que todavía no se crearon técnicas de abuso únicas potenciadas por IA, sí se observa un incremento en la atención hacia las utilidades de OpenAI para tratar de aplicarlas en terreno malicioso.

"Los grupos cibercriminales, las amenazas vinculadas con estados nación y otros adversarios están explorando y probando diferentes tecnologías de inteligencia artificial a medida que surgen, en un intento de comprender el valor potencial de sus operaciones y los controles de seguridad que posiblemente deban evadir", explicó Microsoft.

Por su parte, OpenAI indicó que cinco grupos de hackers fueron detectados utilizando sus herramientas para fines ilegítimos. Dos de ellos tenían conexión con el gobierno chino, mientras que los restantes estaban afiliados con Rusia, Corea del Norte e Irán. La compañía no solo identificó las cuentas que utilizaban para acceder a ChatGPT, sino que también las dio de baja.

¿Para qué usan ChatGPT los piratas informáticos?

¿Para qué usan ChatGPT los piratas informáticos? | La IA como aliada de los hackers

Durante su investigación, OpenAI y Microsoft concluyeron que el uso de ChatGPT por parte de los hackers seguía lineamientos bastante similares. Por ejemplo, utilizaban el chatbot de inteligencia artificial para traducir documentos, para programar y buscar errores en el código, y para generar contenidos que se pudieran usar en campañas de phishing o spear phishing. Aunque también registraron algunos comportamientos más específicos.

El grupo iraní CURIUM, identificado por los expertos en seguridad como Crimson Sandstorm, se valió de las herramientas basadas en IA para obtener información sobre ingeniería social y para investigar cómo un software malicioso puede evadir su detección.

Los hackers rusos de STRONTIUM, alias Forest Blizzard, aprovecharon ChatGPT para recopilar información abierta sobre protocolos satelitales y tecnologías de imágenes de radar. Mientras que los norcoreanos de THALLIUM (Emerald Sleet) se inclinaron por la inteligencia artificial de OpenAI para identificar a organizaciones y expertos en Defensa de la región Asia-Pacífico.

En el caso de los cibercriminales chinos, los grupos CHROMIUM y SODIUM (Charcoal Typhoon y Salmon Typhoon), abrazaron ChatGPT para investigar programas de ciberseguridad y a sus respectivos desarrolladores. Como así también, para traducir documentos técnicos y recopilar información pública de agencias de inteligencia, entre otras labores.

La IA como aliada de los hackers

Es evidente que aplicaciones potenciadas por inteligencia artificial como ChatGPT se están volviendo aliadas muy importantes de los grupos hackers más peligrosos del planeta. Si bien los chatbots todavía no son efectivos para desarrollar malware por sí mismos, y existen ciertas salvaguardias para evitar su uso malintencionado, aún sirven para automatizar o simplificar tareas que pueden optimizar el proceso detrás de un ciberataque.

OpenAI sostiene que GPT-4 solo brinda "capacidades incrementales limitadas" a los ciberdelincuentes, considerando que ya existen muchas herramientas maliciosas en la web que no dependen de la inteligencia artificial. De todos modos, es importante mantenerse en alerta.

La propia existencia de ChatGPT y otras aplicaciones similares es atractivo suficiente para que los hackers intenten sacarle provecho. Así lo explica Microsoft: "El soporte lingüístico es una característica natural de los LLM y resulta atractivo para los actores maliciosos que se centran continuamente en la ingeniería social y otras técnicas que se basan en comunicaciones falsas y engañosas adaptadas a los trabajos, redes profesionales y otras relaciones de sus objetivos".

Recibe cada mañana nuestra newsletter. Una guía para entender lo que importa en relación con la tecnología, la ciencia y la cultura digital.

Procesando...
¡Listo! Ya estás suscrito

También en Hipertextual: