Hasta hace no muchos años, la inteligencia artificial parecía algo sacado de una historia utópica. Descrita comúnmente como "sistemas y herramientas" para "ayudar" y "mejorar" la calidad de vida, hemos dejado pasar algo tan esencial a la creación de las misma: su educación. Sí, como si de un niño se tratase, la manera en la que entrenas una IA va a decir mucho de su porvenir, y esta inteligencia entrenada en 4chan nos demuestra cómo no educarlas.

El YouTuber Yannic Kilcher decidió entrenar una inteligencia artificial usando a 4chan como modelo. En específico, usó el tablero Politically Incorrect (Políticamente Incorrecto) para generar una creación impensable hasta por el mismísimo diablo. Por supuesto, este movimiento no está libre de controversias, y es que un montón de personas ya se han puesto en contra de esta idea.

El resultado fue terrible, pero no porque haya salido mal. De hecho, la IA tuvo tanto éxito en aprender de 4chan que acabó creando unas 15.000 publicaciones de contenido racista al día en el tablero.

YouTube video
Vídeo de Yannic Kilchner

Cómo funciona el modelo de IA de Kilcher

Para comenzar, te daremos contexto sobre lo que es el tablero Politically Incorrect (/pol/) en 4chan. En este espacio los usuario se dedican a publicar contenido racista, misógino, antisemita, LGBTfóbico y sobre muchos otros temas lamentables más. Así, Yannic Kilcher decidió crear una IA a la que acabó nombrando GPT-4chan (inspirándose en el modelo GPT-3 de OpenAI).

Este modelo de inteligencia artificial no solo aprendió a detectar las palabras usadas dentro del tablero Politically Incorrect. Además de esto, logró captar el tono usado por los usuarios del mismo. "En él se encapsulaba perfectamente la mezcla de ofensa, nihilismo, troleo y profunda desconfianza hacia cualquier información que impregna la mayoría de los mensajes en /pol/", comentó Kilcher, "orgulloso" de su creación.

Una vez Kilcher terminó de entrenar a su IA, decidió lanzarla a 4chan en forma de múltiples bots. Con ellos, el modelo logró alcanzar hasta 15.000 publicaciones en un solo día. Yannic tuvo especial cuidado de no ser detectado por los bots en la plataforma, llegando a usar incluso servicios VPN para falsificar la región desde donde estaban publicando alguno de estos mensajes de computadora.

Aunque la creación del youtuber ha sido bastante criticada por los usuarios de internet y los especialistas en IA, Kilcher se ha tomado el tema como una especie de broma. Después de todo, es un contenido al que los usuarios de 4chan están acostumbrados, por lo que las personas realmente no notaron nada raro en el tablero.

Las duras críticas contra GPT-4chan

Aunque la idea pueda parecer bastante llamativa, no ha escapado de controversia. De hecho, Lauren Oakden-Rayner, directora de investigación de imágenes médicas del Hospital Real de Adelaida e investigadora principal del Instituto Australiano de Aprendizaje Automático; ha comentado al respecto.

"Este experimento nunca pasaría una junta de ética de la investigación humana", comentó la directora en una publicación de Twitter; agregando además que "La ciencia abierta y el software son principios maravillosos, pero deben equilibrarse con el daño potencial".

"La investigación médica tiene una fuerte cultura ética porque tenemos un terrible historial de causar daño a las personas, generalmente de grupos desprotegidos. Realizó experimentos en humanos sin informar a los usuarios, sin consentimiento ni supervisión. Esto incumple todos los principios de la ética de la investigación con seres humanos.

Dra. Lauren Oakden-Rayner

Oakden-Rayner expande su idea en uno de las páginas de discusión para GPT-4chan, agregando que "No hay nada malo en hacer un modelo basado en 4chan y probar cómo se comporta. La principal preocupación que tengo es que este modelo sea de libre acceso para su uso".

El duro dilema moral que propone esta IA

inteligencia artificial
Crédito: Unsplash

El modelo desarrollado por Yannic Kilcher es, innegablemente, uno muy interesante. Después de todo, ver cómo una IA es capaz de aprender y demostrar que las fuentes usadas en su entrenamiento importan, es algo que puede resultar tanto útil como divertido. Ver los diferentes escenarios en los que es "criada", para luego verla en acción en el mundo real.

Aquí, no cabe duda que Kilcher hizo un buen e interesante trabajo. Sin embargo, ciertamente dejar este tipo de tecnologías al alcance de cualquiera puede resultar potencialmente peligroso. En un mundo que cada vez vive más dentro de internet, la propagación de mensajes de odio se convierte un factor realmente peligroso para personas pertenecientes a comunidades históricamente discriminadas.

Solo imagina que alguien se dedique a usar estos bots entrenados en 4chan para sabotear cualquier campaña en pro de los derechos humanos de determinadas comunidades. Viendo que tiene la capacidad de generar al menos 15.000 publicaciones de contenido bastante oscuro en un periodo de un día, podría acabar siendo usada en detrimento de estos movimientos sociales. Así, dichos movimientos podrían ser totalmente invisibilizados, e incluso llevar a que una parte de la población los desestime por completo.

Todos en contra de GPT-4chan

Eso sí, a pesar de estos peligros, estos investigadores de inteligencia artificial podrían estarse dejando llevar un poco por el activismo de internet. Después de todo, no es el primer bot de mensajes de odio que existe en toda la web, y ciertamente no será el último.

Por su parte, tras las advertencias de los investigadores, Hugging Face ha decidido detener las descargas externas del modelo. Sin embargo, aunque dichos expertos en IA esperaban que la plataforma eliminase el bot por completo, Hugging Face se ha negado a hacerlo.

"Después de un gran debate interno en HF, hemos decidido no eliminar el modelo que el autor subió aquí en las condiciones que:

1. La ficha del modelo y el vídeo advertían claramente de las limitaciones y problemas que planteaba el modelo y la sección POL de 4Chan en general.

2. El widget de inferencia estaba desactivado para no facilitar el uso del modelo.

Clement Delangue, CEO de Hugging Face

Además, Delangue ha declarado públicamente que el modelo desarrollado por Kilcher ha sido "útil para poner a prueba lo que podía hacer un modelo entrenado con esos datos y cómo se comportó en comparación con otros (en concreto, el GPT-3), y que ayudaría a llamar la atención tanto sobre las limitaciones como sobre los riesgos de esos modelos".

Kilcher tiene razón. Después de todo, es necesario conocer el lado oscuro de las cosas para poder gestionarlos. Mejor saber cómo podría comportarse una IA relativamente "primitiva" entrenada en este campo, que esperar a que suceda dentro de cien años y que nos tome por sorpresa al mejor estilo Skynet.