ChatGPT ha prendido focos rojos en las fuerzas policiales. La explosión en popularidad del chatbot no solo trajo consigo un sinfín de aplicaciones en diversos campos, sino también estafas y un temor generalizado. Ahora un reporte de la Europol advierte sobre el posible uso indebido de la IA por parte de los delincuentes.

La agencia europea organizó en días pasados una serie de talleres para abordar el potencial negativo del chatbot. En el informe ChatGPT: el impacto de los modelos de lenguaje extenso en la aplicación de la ley, la Europol expone cómo la IA ayudaría a delincuentes a cometer diversas fechorías. La lista de crímenes es variada e incluye fraude, suplantación de identidad, hackeos, terrorismo, propaganda y desinformación.

De acuerdo con la Europol, los modelos de lenguaje extenso (LLM) como ChatGPT han demostrado ser capaces de realizar trabajos creativos. Si bien ofrecen beneficios para el público y las empresas, también representan un riesgo para su seguridad. Desde que se abrió al público a finales de 2022, el chatbot ha sido utilizado por millones de personas, algunas de ellas, con intenciones de cometer fraude, planear ataques terroristas o incluso, intentar romper las reglas de seguridad impuestas por OpenAI.

El reporte afirma que la habilidad de reproducir textos que parecen auténticos facilita la tarea para cometer phishing. Los estafadores no tendrían que preocuparse por revisar el estilo y gramática, incluso podrían solicitar a ChatGPT que adopte un estilo definido al redactar un correo fraudulento. «Con la ayuda de los LLM, estos tipos de phishing y fraude en línea se pueden crear de manera más rápida, mucho más auténtica y a una escala significativamente mayor», indica la Europol.

ChatGPT: ¿una escuela para delincuentes?

ChaGPT con gpt-4

Una de las partes que llama la atención de este reporte tiene que ver con la inmediatez de la información. Según la Europol, si un delincuente potencial no sabe nada sobre un área delictiva en particular, ChatGPT puede acelerar significativamente el proceso de investigación. Solo basta hacer una pregunta contextual y será "significativamente más fácil" comprender y llevar a cabo los delitos.

ChatGPT se puede utilizar para obtener información sobre una gran cantidad de posibles áreas delictivas sin conocimiento previo, que van desde cómo entrar en una casa hasta terrorismo, ciberdelincuencia y abuso sexual infantil.

Europol

Un ejemplo de este concepto de facilitar las fechorías a alguien con poco o nulo conocimiento se encuentra en el cibercrimen. La agencia europea menciona que la habilidad de crear código en diversos lenguajes de programación permitiría a un delincuente de poca monta crear una web de phishing o scripts maliciosos. Aunque las herramientas que ChatGPT puede producir son simples, se volverán más complejas a medida que avance el desarrollo de este modelo.

Algunas personas ya pusieron a prueba la capacidad de ChatGPT para planear robos o terrorismo en una escuela. Usando trucos con lenguaje natural para saltarse las directrices de seguridad, un usuario consiguió que el chatbot le dictara los pasos a seguir para robar una casa. Tal vez el caso más escabroso fue de Vaibhav Kumar, un ex empleado de Amazon que enmascaró una petición para provocar un ataque terrorista maximizando la cantidad de daño.

La Europol enlista una serie de lineamientos a seguir por parte de OpenAI y otras empresas que desarrollan modelos LLM. Sumado a las prácticas de IA responsable, la agencia hace hincapié en una regulación a futuro. Actualmente, la Unión Europea trabaja en una propuesta de ley para regular aplicaciones de inteligencia artificial.