OpenAI ha anunciado la conformación de un nuevo comité de seguridad que se encargará de dar recomendaciones sobre puntos críticos relacionados con ese apartado, tanto en lo que respecta a proyectos como al funcionamiento de la startup en sí. Además, la compañía ha confirmado un dato clave sobre GPT-5, su esperado próximo modelo de inteligencia artificial.

En lo que respecta a GPT-5, OpenAI reveló que ya ha comenzado a entrenarlo. Si bien la firma dirigida por Sam Altman no lo nombra específicamente, es evidente que se refiere a dicha IA.

"OpenAI ha comenzado recientemente a entrenar su próximo modelo de frontera y anticipamos que los sistemas resultantes nos llevarán al siguiente nivel de capacidades en nuestro camino hacia la inteligencia artificial general", dice la compañía.

¿Qué es un modelo de frontera o frontier model? Hablamos de un modelo de aprendizaje automático a gran escala que supera las capacidades de los modelos más avanzados que existen en la actualidad y que pueden realizar una variedad de tareas muy amplia. Así lo define el Frontier Model Forum, un organismo conformado por Google, Anthropic, Microsoft y la propia OpenAI con la intención de autorregularse. Y si tomamos las recientes declaraciones de Sam Altman sobre sus avances, está claro que GPT-5 entra dentro de esa consideración.

El líder de OpenAI no tuvo tapujos al reconocer que GPT-4 será considerado un modelo de IA "tonto" cuando su sucesor llegue al público. Y aseveró que la principal virtud de GPT-5 y tecnologías posteriores será la de ser cada vez más inteligentes. Algo que parece demasiado simplista dicho de ese modo, pero que Altman considera crucial de cara al futuro.

"Creo que lo más importante de GPT-5, o como lo llamemos, es que será más inteligente. Creo que uno de los hechos más notables de la historia humana es que podamos hacer algo y decir ahora mismo, con un alto grado de certeza científica, que GPT-5 será mucho más inteligente que GPT-4. Y GPT-6 será mucho más inteligente que GPT-5, y no estamos ni siquiera cerca de la cima de esta curva", dijo el empresario.

OpenAI ha comenzado a entrenar a GPT-5

GPT-5 | OpenAI
Foto de Andrew Neel en Unsplash

La confirmación de que OpenAI ya está entrenando GPT-5 es interesante, aunque genera ciertas contradicciones con respecto a informes previos. Según se filtró en meses pasados, la intención de la startup era anunciar el nuevo modelo de IA este mismo verano. Pero si las labores de entreno han comenzado hace poco, parece improbable que podamos ver esta tecnología en lo inmediato.

No olvidemos que, tras su entrenamiento y optimización, los nuevos modelos de IA pasan al proceso de red teaming. Esto significa que la tecnología se somete a duras pruebas para cotejar su confiabilidad y seguridad. Son tareas que demandan tiempo, sin dudas. Y considerando las críticas que ha recibido OpenAI últimamente, seguro no las quieran tomar a la ligera.

Más allá de la referencia implícita a GPT-5, los californianos han aprovechado la conformación de su nuevo comité para mostrar que están comprometidos con el desarrollo seguro de sus modelos y productos. Días atrás, la compañía perdió a Jan Leike, líder del equipo a cargo de atender los riesgos a largo plazo de la IA. El susodicho publicó un hilo en X (Twitter) reprochando la dirección que ha tomado OpenAI bajo el mando de Sam Altman. "En los últimos años, la cultura y los procesos de seguridad han quedado en segundo plano frente a los productos brillantes", aseveró.

Sam Altman y Greg Brockman emitieron un comunicado conjunto aludiendo a dicho reclamo, y el comité de seguridad ahora anunciado buscará llevar tranquilidad dentro y fuera de la startup. Este grupo estará conformado por miembros de la junta de OpenAI (Sam Altman, Adam D’Angelo, Nicole Seligman y Bret Taylor) y expertos en áreas técnicas y de política como Aleksander Madry, John Schulman, Matt Knight, Jakub Pachocki y Lilian Weng. El comité también consultará con los expertos en ciberseguridad John Carlin y Rob Joyce.

"La primera tarea del comité de seguridad será evaluar y desarrollar aún más los procesos y salvaguardas de OpenAI durante los próximos 90 días. Al finalizar los 90 días, el comité de seguridad compartirá sus recomendaciones con toda la junta directiva. Luego de la revisión completa de la junta, OpenAI hará pública una actualización sobre las recomendaciones adoptadas de una manera que sea consistente con la seguridad".

OpenAI

Recibe cada mañana nuestra newsletter. Una guía para entender lo que importa en relación con la tecnología, la ciencia y la cultura digital.

Procesando...
¡Listo! Ya estás suscrito

También en Hipertextual: