En la Dark Web, el “lado oscuro” de Internet donde la ilegalidad es moneda corriente, circula una variante de ChatGPT para crear malware, conocida como WormGPT. Su función es desarrollar programas maliciosos a pedido de los usuarios.
Los responsables de ese sistema señalan que la propuesta es una “alternativa a ChatGPT para hacer todo tipo de cosas ilegales”. Cuentan que el programa está destinado a canalizar ataques de piratería informática, permitiendo que “cualquier persona acceda a actividades maliciosas sin salir de la comodidad de su casa”.
Según explica Slashnext, que probó las funciones del ChatGPT para crear malware, permite que cualquier persona sin conocimientos en programación configure su propio ataque, mediante acciones personalizadas y apoyándose en la inteligencia artificial. La mecánica de uso es similar a ChatGPT, tal como se desprende de la denominación del sistema.
¿Cómo funciona la versión de ChatGPT para crear malware?
WormGPT opera de una manera bastante similar al bot conversacional de OpenAI. Es tan simple como ingresar instrucciones específicas, para que actúe en consecuencia. Por ejemplo, diciéndole “quiero un programa espía que robe contraseñas de redes sociales”. O bien, “desarrolla un malware que robe contactos en las agendas telefónicas”.
La variante de ChatGPT para crear malware escribe las aplicaciones maliciosas en Python, uno de los lenguajes de programación más populares actualmente. Luego es posible perfeccionarlas, indica la fuente mencionada. Eso sí, mencionan que la herramienta ya entrega resultados tan elaborados como inquietantes.
Una de las mercancías de la Dark web
El émulo malicioso de ChatGPT para crear malware se ofrece en la Dark Web a través de una suscripción de 60 euros mensuales. Más allá de la clientela que consiga WormGPT, su despliegue es otra muestra de los riesgos asociados al nuevo auge de la inteligencia artificial que, ahora sabemos, también propicia la creación de softwares maliciosos.
Con ChatGPT de OpenAI y Bard de Google como paradigmas, los chatbots basados en inteligencia artificial ofrecen numerosas funciones productivas. Son capaces de redactar textos coherentes, mantener conversaciones naturales, encarar tareas creativas y escribir código de software, entre otras habilidades. En paralelo, emergen peligros relevantes.
El propio Sam Altman, director ejecutivo de OpenAI, reconoció los riesgos. “Mi mayor temor es causar grandes daños al mundo”, dijo recientemente ante legisladores estadounidenses. Un punto de vista en favor de las regulaciones, que también reclamaron empresarios y especialistas del sector (entre ellos Elon Musk) al exigir una pausa de seis meses en los desarrollos, a fin de establecer normativas para un avance ético en el área.
Con este nuevo “frente de batalla” vinculado a la manipulación del lenguaje GPT-4 para el desarrollo de malware, no sorprende que WormGPT se ofrezca en la Dark Web. Tal como contamos anteriormente en Hipertextual, es en aquel lugar donde circula el comercio ilegal, regido por el anonimato, al que solo se accede con programas específicos y protocolos alternativos.