ChatGPT está en boca de todos desde hace varias semanas y es, junto a DALL-E 2, uno de los grandes fenómenos virales de OpenAI. El chatbot de inteligencia artificial se ha vuelto tema de conversación recurrente en redes sociales, y también ha protagonizado un sinfín de titulares desde su lanzamiento. Sin embargo, un reconocido experto en IA apareció para bajarle la espuma al asunto y asegurar que la plataforma no tiene nada de innovadora o revolucionaria.
Se trata del francés Yann LeCun, pionero en áreas como el aprendizaje automático y aprendizaje profundo, y la neurociencia computacional, entre otras. El hoy científico jefe de inteligencia artificial de Meta fue categórico al opinar sobre ChatGPT y su impacto entre los usuarios.
"En términos de técnicas subyacentes, ChatGPT no es particularmente innovador. No es nada revolucionario, aunque esa es la forma en que se percibe en el público. Es solo que, ya sabes, está bien armado, está muy bien hecho", aseguró en una reciente reunión vía Zoom, según recoge ZDNet.
A simple vista, podría parecer que LeCun está tratando de menospreciar el trabajo de OpenAI. No obstante, sus términos apuntan a brindar contexto a quienes tuvieron con ChatGPT su primera interacción con un modelo de lenguaje de este tipo. Es decir, a aclarar que la tecnología que potencia a la plataforma no fue creada desde cero por la firma de Sam Altman.
"OpenAI no es particularmente un avance en comparación con otros laboratorios, en absoluto. No se trata solo de Google y Meta, sino que hay media docena de startups que básicamente tienen una tecnología muy similar. No quiero decir que no sea ciencia espacial, pero es realmente compartido, no hay ningún secreto detrás de esto, por así decirlo".
Yann LeCun, sobre OpenAI y ChatGPT.
ChatGPT y el arte de sacar provecho de tecnologías ya existentes
Yann LeCun explicó que OpenAI se ha servido de tecnologías que han sido desarrolladas y pulidas en el transcurso de muchos años. Algo que no necesariamente es malo, aunque sí ha generado cierto malestar en el sector por la gran mediatización de ChatGPT y otros productos de su casa matriz.
El experto indicó que GPT-3, el modelo de lenguaje en el que está basado el chatbot de inteligencia artificial, se creó a partir de arquitecturas Transformer desarrolladas por Google. Y a su vez, la tecnología desarrollada por los de Mountain View se basó en el trabajo del informático canadiense Yoshua Bengio, quien dos décadas atrás había creado el primer modelo de lenguaje de red neuronal.
Además, LeCun aseguró que la técnica utilizada por OpenAI para entrenar a ChatGPT —conocida en el sector como “aprendizaje de refuerzo a través de la retroalimentación humana”— también fue originalmente implementada por Google.
La explicación del científico jefe de IA de Meta es realmente válida. Como ya dijimos, sirve para poner en contexto cómo la startup cofundada por Elon Musk ha logrado algunos de sus productos más exitosos. Pero no le quita ningún tipo de mérito a la "vuelta de tuerca" en materia de exposición que OpenAI ha logrado al permitir que el público en general interactúe con servicios como DALL-E 2 y ChatGPT.
De hecho, esto último es lo que verdaderamente genera preocupación en empresas como Google o Meta. No es que estén menos avanzadas que OpenAI en materia de inteligencia artificial, sino que todavía no han desarrollado herramientas que permitan su uso masivo en situaciones cotidianas. Al menos no como ChatGPT, cuya interacción con las personas es directa y no una característica que se esconde bajo el capó en otro producto.
¿Celos en la competencia?
Consultado sobre por qué Google y Meta hoy no compiten con ChatGPT, LeCun optó por un planteo similar al recientemente expresado desde Mountain View. "Ambas compañías tienen mucho que perder si lanzan sistemas capaces de inventar cosas", dijo. Lo anterior, en clara referencia a cómo el chatbot de OpenAI es capaz de "mentir" a la hora de responder preguntas de las cuales no conoce su verdadera respuesta.
Por lo pronto, la startup dirigida por Sam Altman está disfrutando su momento de mayor exposición y reconocimiento. Ayer, la empresa confirmó que recibirá una nueva inversión multimillonaria por parte de Microsoft. La cifra final no se ha divulgado, pero se estima en 10.000 millones de dólares como parte de un acuerdo multianual. Esto no solo permitirá incrementar la infraestructura para entrenar a ChatGPT y demás sistemas, sino también implementarlos en los productos de Redmond. Además, Azure se convertirá en el proveedor oficial de servicios en la nube para la firma radicada en San Francisco, California.