Anthropic acaba de comunicar que tiene un problema con su IA. Más concretamente, con su último invento, un modelo de lenguaje experto en ciberseguridad y vulnerabilidades. Su nombre es Claude Mythos, y la compañía, sabiendo que tenía entre manos algo demasiado grande para liberarlo, decidió limitar su uso hace unas semanas. No parece haber sido suficiente, pues hace unas pocas horas, la propia empresa ha comunicado que Mythos ha caído en las manos equivocadas, algo que puede ser verdaderamente preocupante.

Hasta el momento, solo algunas de las empresas más importantes del mundo, como Apple, Amazon o Microsoft, han tenido un acceso muy limitado a la herramienta, mientras que Anthropic está rechazando solicitudes a miles de compañías en todo el mundo. El motivo no es otro que su peligrosidad: Claude Mythos, si bien ha sido desarrollada como una IA con buenas intenciones, se puede utilizar para el mal.

Según informa la propia Anthropic, Claude Mythos habría sido interceptada tras un acceso no autorizado a través de uno de sus proveedores externos. Además, se sabe que el grupo que ha tenido acceso a la IA cuenta con un canal de Discord donde presume de la hazaña. También comentan que no tienen malas intenciones ni pretenden utilizarla para perpetrar ataques, sino para prevenirlos.

Y es que, en esencia, ese es el objetivo de Claude Mythos: convertirse en una IA experta en ciberseguridad para encontrar vulnerabilidades en sistemas operativos y navegadores. Y no lo hace nada mal: Mozilla Firefox ha anunciado que, gracias al uso de este modelo, ha sido capaz de encontrar 271 vulnerabilidades en su navegador que todavía no se habían detectado por su personal humano.

Claude Mythos Anthropic

Anthropic no ha creado una IA que crea virus, pero en las manos equivocadas puede ser increíblemente peligrosa

No, Claude Mythos no está pesada para crear virus, pero sí es una verdadera experta en encontrar esas puertas abiertas que permiten a los atacantes adentrarse en la navegación o los ordenadores de los usuarios. Para esto la estaban utilizando Apple, Amazon o Microsoft, para buscar cosas en sus sistemas que sus equipos humanos no han sido capaces de detectar.

¿Cuál es el problema? Que una IA de este calibre puede hacer mucho daño en las manos equivocadas. Con el suficiente conocimiento, es posible analizar Google Chrome, iOS, Android o Windows y que el modelo de lenguaje te ofrezca una lista completamente nueva de vulnerabilidades que no están explotadas ni descubiertas.

Es decir, una lista de puertas abiertas que nadie conoce y que en las manos erróneas puede suponer mucho daño para, prácticamente, cualquier compañía tecnológica del mundo. Anthropic no ha comentado mucho más aparte de la filtración del modelo, por lo que es necesario esperar.

Si Mozilla ha conseguido descubrir 271 vulnerabilidades en cuestión de días con Claude Mythos, deja claro que hay un nuevo miedo en la industria: que una IA de estas características se filtre y pueda ser utilizada por cualquiera. Como usuario, podrías ejecutarla para que te diese una lista de puertas abiertas en una tienda online cualquiera y poder explotar fallos con no muy buenas intenciones.