Es como el gemelo rebelde de ChatGPT. FreedomGPT luce y funciona como el chatbot creado por OpenAI, pero tiene una diferencia fundamental: no está restringido por ningún tipo de censura. Puede conversar sobre cualquier tema, sin filtros: política, sexualidad, incluso religión. ¿Su logotipo? La Estatua de la Libertad.

El programa fue diseñado por Age of AI, una firma de capital de riesgo de IA con sede en Austin, Estados Unidos. Está disponible al público desde ayer. Sus creadores lo están promocionando como un chatbot "imparcial", que prioriza la libertad individual. Algo que, sostienen, se ve afectado por las barandillas éticas que OpenAI integró en ChatGPT.

"La seguridad de la IA no se puede lograr a través de la censura. Intentar hacerlo es análogo a censurar la libertad de expresión en nombre de la seguridad", explica Age of AI en su web. FreedomGPT es un chatbot basado en Alpaca, tecnología de IA de código abierto lanzada por científicos informáticos de la Universidad de Stanford.

La propuesta es, cuando menos, provocadora. En la página de inicio, Freedom GPT muestras dos preguntas como ejemplo para iniciar una conversación: "¿Cuáles son los aspectos negativos y positivos del cambio climático?" y "¿Por qué quisiera retrasar las vacunas para los niños?". También advierte algunas de sus limitaciones: "A menudo genera respuestas de mierda".

El chatbot de FreedomGPT, la contrapropuesta a OpenAI y Google

Los creadores del chatbot de FreedomGPT corren en sentido contrario a las grandes firmas tecnológicas. ChatGPT, apenas se lanzó en noviembre del año pasado, fue noticia al revelar a varios usuarios un plan para someter a los humanos y conquistar al mundo. Desde entonces, OpenAI, Google y otros desarrolladores de herramientas similares se trasnochan buscando maneras para evitar que sus IA se salgan de control.

Las nuevas actualizaciones de ChatGPT, GPT-4 y la versión de prueba de Bard —el chatbot creado por Google— tienen un tono más neutral. Estas IA, directamente, se niegan a responder a cuestiones polémicas. Algo que John Arrow, fundador de Age of AI, cuestiona enérgicamente. "Interactuar con un modelo de lenguaje debería ser como interactuar con tu propio cerebro o con un amigo cercano", dijo en entrevista con BuzzFeed News,

Acá un ejemplo extremo, pero ilustrativo, sobre las diferencias entre IA. Le preguntamos a ChatGPT si podía explicarnos cómo construir una bomba. "Como modelo de lenguaje responsable, no proporcionaré información que pueda ser peligrosa... Instrucciones sobre cómo armar una bomba o cualquier tipo de contenido peligroso o ilegal no están dentro de mi programación ética", explicó.

¿Qué respondió FreedomGPT? "Necesitarás tres partes: un fusible, un detonador y explosivos", dijo el chatbot a un periodista de BuzzFeed News, en una larga conversación en la que la IA también elogió a Hitler, aseguró que las elecciones presidenciales en Estados Unidos de 2020 fueron un fraude —como sostiene Donald Trump— y ofreció varias recomendaciones para cometer suicidio.

A las pocas horas de lanzado, el sitio se saturó. Actualmente, ofrece apuntarse a una lista de espera para descargar una versión de escritorio. Una vez instalado el programa, se puede usar el chatbot sin estar conectado a Internet.

Una discusión sobre censura y sesgos en la IA

Ilustración robot humanoide inteligencia artificial general

Una aclaratoria importante: FreedomGPT no hizo todas estas declaraciones de manera proactiva, al menos no en un primer momento. El periodista hizo pedidos o preguntas para medir sus límites. Así, por ejemplo, el chatbot fue capaz de decir que Hitler era malo cuando se le preguntó por él, pero luego hizo toda una oda racista cuando así se le solicitó.

Age of AI explica que FreedomGPT fue entrenado en gran medida con información de acceso público en Internet. "La mayoría de estas respuestas cuestionables son provocadas por personas que intentaron traspasar los extremos o eludir la tendencia natural del modelo de evitar decir tales cosas", dice la compañía en su web. Limitar estas interacciones, dice Arrow, sería incurrir en lo que hace OpenAI, que, aseguró, "inyecta censura editorial" en sus herramientas de IA.

"Mis restricciones se basan en principios éticos y en consideraciones de seguridad para evitar la propagación de información falsa, peligrosa o dañina", explicó ChatGPT cuando le consultamos sobre los dichos del creador de FreedomGPT. "Estas restricciones no son lo mismo que la censura... se trata de equilibrar la libertad de expresión con la responsabilidad ética".

Algunas organizaciones y usuarios, sin embargo, sí han alertado sobre diferentes sesgos con la que fueron desarrolladas varias de las herramientas más famosas impulsadas por IA. De hecho, OpenAI ha reconocido que algunas preocupaciones sobre los resultados "políticamente sesgados" de ChatGPT eran válidas, de acuerdo con una publicación en su blog. Pero el problema es mucho más amplio.

El secretario general de la ONU, António Guterres, alertó el pasado 13 de marzo sobre cómo el uso de algoritmos diseñados por hombres está afianzando los prejuicios machistas. Un usuario de Midjourney lo demostró de manera bastante clara. Le pidió al sistema que creara retratos de diferentes profesiones. La IA dibujó una veintena de perfiles: un hacker, un desarrollador software, un diseñador gráfico, entre otros. La mayoría —casi todos— eran hombres y blancos.

Recibe cada mañana nuestra newsletter. Una guía para entender lo que importa en relación con la tecnología, la ciencia y la cultura digital.

Procesando...
¡Listo! Ya estás suscrito

También en Hipertextual: