El DevDay, la primera conferencia para desarrolladores de OpenAI, no ha decepcionado. La compañía realizó múltiples anuncios, entre los que destacó GPT-4 Turbo, una versión con esteroides de su más reciente modelo de lenguaje. Así mismo, introdujo los GPTs, variantes personalizadas de ChatGPT que se podrán crear, compartir y, en un futuro, monetizar.

En el caso de GPT-4 Turbo, OpenAI remarcó varias optimizaciones. Es más potente, su base de conocimiento está actualizada hasta abril de 2023, admite una ventana de contexto mucho más amplia —equivalente a unas 300 páginas de texto en un solo prompt—, y puede aceptar imágenes como método de entrada, por mencionar algunas. Todo esto, menos de 8 meses después del lanzamiento de GPT-4.

Pero lo que más ruido hizo no fue la implementación de estas sustanciales mejoras, sino que será más barata que su predecesora. Y tiene sentido que así sea. Después de todo, esto es crucial para la verdadera masificación de la inteligencia artificial generativa aplicada en productos y servicios de uso cotidiano. Además, aparenta ser la guía de la próxima etapa en la historia de los californianos.

Si observamos la web de OpenAI, 1.000 tokens de entrada de GPT-4 Turbo, que equivalen a unas 750 palabras, cuestan un centavo de dólar. Mientras que 1.000 tokens de salida tienen un precio de 3 centavos de dólar. Esto es una reducción considerable si lo comparamos con GPT-4, cuyos lotes de 1.000 tokens de entrada y salida cuestan 3 y 6 centavos de dólar, respectivamente.

En términos sencillos, entonces, utilizar la versión "sobrealimentada" de GPT-4 puede ser hasta tres veces más barato que la original. Claro que los números finales dependen de cada caso de uso y de otras varias cuestiones propias de la monetización de las herramientas de OpenAI. Pero es evidente que esta decisión marca el inicio de una nueva estrategia para los de Sam Altman.

¿Un vistazo al futuro de OpenAI?

ChatGPT, el chatbot de OpenAI | GPT-4

OpenAI pasó desapercibida para la gran mayoría de las personas hasta que DALL-E y DALL-E 2, sus inteligencias artificiales para generar imágenes a partir de texto, entraron en escena. Sin embargo, no fue realmente hasta que se lanzó ChatGPT que la empresa californiana se puso en boca de todos. Hasta entonces, solo los entusiastas tenían una idea realmente certera sobre qué eran los modelos de lenguaje masivos o para qué servían.

ChatGPT fue el punto de inflexión de OpenAI en todos los aspectos posibles. El chatbot fue la primera demostración real del poder de la inteligencia artificial generativa que se puso en las manos del público general. Hasta noviembre de 2022, todo lo que se relacionaba con la IA parecía exageradamente técnico o alejado de la comprensión de las masas. Empresas como Google hablaban continuamente sobre sus avances en la materia, pero sus implementaciones prácticas eran imperceptibles para los usuarios.

Es por ello que cuando ChatGPT entró en escena causó tanto impacto. OpenAI rompió el esquema y se adelantó a sus rivales, sacándoles varios cuerpos de ventaja en pocos meses. Al menos en lo que refiere a exposición pública, por supuesto. El furor inicial por el chatbot llegó acompañado por una nueva inversión multimillonaria de Microsoft, el anuncio de GPT-4, la aparición de DALL-E 3 y el lanzamiento de nuevas características a un ritmo frenético.

Los de Sam Altman le imprimieron, justamente, un cambio de ritmo a las innovaciones en el campo de la IA generativa. Un plan que no estuvo exento de polémicas, claro, pero que obligó a sus competidores a moverse para no quedar en ridículo. Google, Meta, Alibaba, Baidu, Samsung y Amazon salieron a mostrar sus naipes casi de inmediato. Hasta Apple entró en este juego, cuando muchos empezaban a preocuparse de que a los de Tim Cook se les escapara el tren. Y no olvidemos que, en medio de todo esto, Elon Musk y más de 1.000 expertos en IA firmaron una carta pidiendo que se frenara por 6 meses el desarrollo de modelos de lenguaje más potentes que GPT-4.

Pero después de un año marcando el paso, lo que vimos en el DevDay da a entender que OpenAI tiene otro drástico cambio entre manos. La compañía ya pateó el tablero una vez y puede que ahora pise el freno en su estrategia de "innovación pura y dura". Ya tiene la ventaja tecnológica, al menos ante los ojos del público. En adelante, toda IA que aparezca será comparada con la de OpenAI, sin importar si es igual, mejor o peor. Algo que, en realidad, ya está sucediendo.

Los de San Francisco ahora deben lograr que sus productos no solo sean técnicamente atractivos, sino también más baratos para los desarrolladores. Y en simultáneo, deben apuntar a que la empresa comience a equilibrar la balanza económica, puesto que hasta aquí ha sido una máquina de quemar cientos de millones de dólares.

La GPT Store puede ser la próxima revolución

Más allá del lanzamiento de GPT-4 Turbo como una opción más potente y barata de su inteligencia artificial, OpenAI se adelantó con otro anuncio que puede cambiar el ecosistema. Hablamos de la GPT Store, una suerte de tienda en línea donde los usuarios podrán compartir sus versiones personalizadas de ChatGPT. Es decir, el equivalente a lo que la App Store y la Play Store son para iOS y Android al hablar de aplicaciones para móviles.

Aquí jugarán un rol crucial los nuevos GPTs. Que cualquier persona pueda crear y compartir su propia versión de ChatGPT, sin necesidad de saber programar, es una evolución brutal para la experiencia de uso y para la masificación de la IA generativa aplicada en el día a día. Además, OpenAI asegura que habrá recompensas económicas para quienes creen GPTs que obtengan un gran número de usuarios.

Está claro que Sam Altman y compañía tienen varios frentes abiertos y seguirán dando de qué hablar por mucho tiempo. Además, contar con el aval —económico y tecnológico— de Microsoft los coloca en una posición envidiable de cara al futuro. Es cierto que la participación de los de Redmond no es desinteresada; de hecho, recibirán el 75 % de los ingresos de la startup hasta recuperar su inversión y luego serán dueños del 49 % de la misma. Pero a los de Satya Nadella también les sirve para potenciar las capacidades de Azure, ofreciendo los servicios de OpenAI a terceros a través de la nube.

A esto nos referimos, entonces, cuando hablamos de una estrategia de innovación más lenta a cambio de una IA más barata o económicamente viable en el largo plazo. Con GPT-4 Turbo y la GPT Store, OpenAI demuestra que todavía está a la vanguardia y que tiene mucho que ofrecer antes de dar el salto a GPT-5 y futuras generaciones de su modelo de lenguaje.

La startup ya rompió los esquemas en el mundo de la inteligencia artificial. Ahora debe enfocarse en bajar los costes (hacia adentro y hacia afuera), sin perder de vista las tendencias que más resuenan entre el público general y los expertos. Es decir, encontrar el camino a la viabilidad económica, sin rifar su lugar como la referencia más importante en el mundo de la IA generativa hoy en día.