Días antes de que Sam Altam fuese despedido de OpenAI, los investigadores de la compañía escribieron una carta a la junta directiva mostrando su preocupación sobre los peligros de su próxima IA; entre ellos, que “podría amenazar a la humanidad”, ha revelado Reuters.

Según el citado medio, quien ha corroborado la información con dos fuentes familiarizadas en el asunto, los investigadores alertaron que Altman quería lanzar al mercado productos de IA muy poderosos sin evaluar antes las consecuencias, entre otra serie de quejas. Esto podría haber llevado a la junta a tomar la decisión de despedirle —aunque finalmente ha vuelto a su puesto—. La junta, de hecho, confirmó el despido el pasado 17 de noviembre alegando haber perdido la confianza en Sam Altman.

Uno de los productos que OpenAI, bajo la dirección de Altman, quería lanzar sin tener en cuenta lo perjudicial que podría ser para la humanidad, parece ser una inteligencia artificial general (AGI). La compañía la ha estado desarrollando a través de un proyecto interno llamado Q* (pronunciado Q-Star).

Esta IA, en concreto, sería capaz de realizar tareas autónomas lo suficientemente avanzadas como para reemplazar a los humanos en diferentes sectores.

OpenAI tiene una IA que alcanza el mismo nivel de inteligencia que un humano

Logotipo de OpenAI junto a ChatGPT.
Los errores de ChatGPT son moneda corriente.

La IA desarrollada a través del proyecto Q* destaca por ser capaz de resolver problemas matemáticos. Por ahora, eso sí, a un nivel de estudiante de escuela de primaria. Es, sin embargo, un avance considerable teniendo en cuenta que los modelos de inteligencia artificial no son tan buenos en este tipo de operaciones, sino que destacan, sobre todo, por sus capacidades de escritura, generación de contenido y traducción.

Por tanto, si IA sabe comprender y solucionar problemas matemáticos, donde solo hay una respuesta correcta, se estaría situando prácticamente al mismo nivel de inteligencia que la de un ser humano. Esto es algo que ha preocupado a los investigadores de OpenAI. De hecho, en la carta enviada a la junta directiva, advierten que llevan mucho tiempo debatiendo sobre el peligro de una IA tan inteligente. También preguntándose, entre otras cosas, si estos modelos podrían decidir que la destrucción de la humanidad les conviene.

Según Reuters, varios equipos centrados en el desarrollo de modelos de inteligencia artificial también estaban trabajando en mejorar las capacidades de los actuales modelos para que estos razonen mejor e, incluso, sean capaces de realizar trabajos científicos.

Sam Altman estuvo cuatro días fuera de OpenAI. Ahora, la compañía ha vuelto a contratarle por presiones de empleados, inversores y ejecutivos. Estos alertaban que la startup no iba a llegar a ningún lado sin él. Varios directivos, incluso, amenazaron con irse a Microsoft si Altman no volvía a ocupar el puesto de CEO.

Recibe cada mañana nuestra newsletter. Una guía para entender lo que importa en relación con la tecnología, la ciencia y la cultura digital.

Procesando...
¡Listo! Ya estás suscrito

También en Hipertextual: