Ilya Sutskever, cofundador y exjefe científico de OpenAI, anunció la creación de una nueva empresa de inteligencia artificial. Safe Superintelligence es un nuevo laboratorio de IA conformado por Sutskever, Daniel Levy — antiguo investigador de OpenAI — y el inversionista Daniel Gross. La compañía tiene como fin el desarrollo de una superinteligencia segura, sin presiones ni fines comerciales.

"La construcción de superinteligencia segura (SSI) es el problema técnico más importante de nuestro tiempo", mencionaron Ilya Sutskever y sus socios. "Hemos puesto en marcha el primer laboratorio SSI del mundo, con un objetivo y un producto: una superinteligencia segura. Se llama Safe Superintelligence Inc."

De acuerdo con Sutskever, el nombre, la misión y toda la hoja de productos de la empresa tiene un objetivo único. A diferencia de OpenAI, Safe Superintelligence alineó el modelo de negocio para conseguirlo, de modo que no habrá distracciones por gastos de gestión o ciclos de productos. "Nuestro modelo significa que la seguridad, la protección y el progreso están aislados de las presiones comerciales de corto plazo", indicaron.

Ilya Sutskever quiere desarrollar una IA que no amenace a la humanidad

Ilya Sutskever, Sam Altman, Greg Brockman y Mira Murati
El último adios de Sutskever a sus compañeros de OpenAI.

La idea de una inteligencia artificial segura ha estado en la mente de Sutskever y otros investigadores. El antiguo jefe científico ya había conformado un equipo para estudiar sistemas de superinteligencia en OpenAI, lo que generó fricciones con Sam Altman. A Ilya Sutskever le preocupaba que modelos de lenguaje como GPT-4 y GPT-5 se volvieran inseguros debido al enfoque comercial, lo que derivó en una revuelta contra su director ejecutivo.

Tras la debacle de noviembre de 2023, Sutskever se alejó de la esfera pública y mantuvo un perfil bajo hasta hace unas semanas, cuando anunció que se iba de la OpenAI.

"Después de casi una década, tomé la decisión de dejar OpenAI. La trayectoria de la empresa ha sido nada menos que milagrosa y estoy seguro de que OpenAI creará una AGI que sea segura y beneficiosa bajo el liderazgo de Sam, Greg, Mira y ahora, bajo el excelente liderazgo de investigación de Jakub Pachocki"

La superinteligencia está a nuestro alcance: Sutskever

Ex Machina Inteligencia Artificial

Con Safe SuperIntelligence, Ilya Sutskever y sus socios podrán avocarse a lo que siempre desearon en OpenAI: desarrollar una inteligencia artificial super potente sin poner en riesgo a la raza humana. La empresa dijo que abordará la seguridad y las capacidades en conjunto, como problemas técnicos que deben resolverse mediante ingeniería de punta y avances científicos.

"Planeamos mejorar las capacidades lo más rápido posible mientras nos aseguramos de que nuestra seguridad siempre esté por delante. De esta manera, podremos escalar en paz." señalaron.

Safe SuperIntelligence se encuentra en su primera fase y ha invitado a otros ingenieros y científicos a unirse, afirmando que ayudarán a resolver "el desafío técnico más importante de nuestra era".

Recibe cada mañana nuestra newsletter. Una guía para entender lo que importa en relación con la tecnología, la ciencia y la cultura digital.

Procesando...
¡Listo! Ya estás suscrito

También en Hipertextual: