OpenAI formó un equipo que estudiará los riesgos que representarían los modelos de inteligencia artificial del futuro. A pocos días del comienzo de la primera cumbre global sobre seguridad de la IA, los creadores de ChatGPT revelaron una división enfocada a evaluar y proteger a la humanidad contra eventos catastróficos, como amenazas químicas y nucleares, ciberataques o replicación autónoma.

El equipo Preparedness (Preparación) estará liderado por Aleksander Madry, director del Centro de Aprendizaje Automático Implementable del Instituto Tecnológico de Massachusetts. Madry, especialista en aprendizaje automático y teoría algorítmica de grafos, tendrá la responsabilidad de rastrear, evaluar, pronosticar y proteger contra “riesgos catastróficos” de los futuros sistemas de IA.

La tecnológica se enfocará en los modelos que puedan persuadir y engañar a los humanos, aquellos que ayuden en el desarrollo de armas químicas, biológicas y nucleares, o que sean pieza clave en ciberataques. Una categoría especial tiene que ver con la inteligencia artificial general (AGI), definida por OpenAI como “la tecnología más impactante que la humanidad haya inventado jamás”.

Estos sistemas superinteligentes nos ayudarían a resolver los problemas más importantes del mundo, pero también podrían conducir a la destrucción de la raza humana. De acuerdo con OpenAI, actualmente no existe una solución para dirigir o controlar sistemas de IA más inteligentes que nosotros. El equipo Preparedness analizará los riesgos de la replicación y adaptación autónomas.

OpenAI no solo plantea en escenarios de un futuro cercano, sino que considera aquellos que solo hemos visto en novelas de ciencia ficción. ¿Podría Aleksander Madry convertirse en una figura clave para la creación de los blade runners? Con suerte, Preparedness evitará que Skynet entre en funcionamiento y se vuelva consciente de sí misma.

Cuáles son los “riesgos catastróficos” de la inteligencia artificial, según OpenAI

Yo Robot, Will Smith combate robots impulsados por inteligencia artificial

De acuerdo con OpenAI, para gestionar los riesgos de la inteligencia artificial del futuro se debe determinar qué tan peligrosos son estos sistemas cuando se hace mal uso de ellos. Una categoría relevante en las que el equipo dirigido por Madry se enfocará será la seguridad cibernética. La probabilidad de que un actor malicioso se valga de una inteligencia artificial para generar código malicioso o realizar ciberataques es un riesgo latente.

OpenAI también considera el terrorismo químico, biológico, radiológico y nuclear (QBRN). El uso de modelos de inteligencia artificial para diseñar y fabricar armas de destrucción masiva es un temor latente de Estados Unidos. La administración de Joe Biden cree que China podría utilizar IA para este propósito, por lo que bloqueó la venta de chips a ese país.

“Pensamos que los modelos de IA de vanguardia, que superarán las capacidades actualmente presentes en los modelos más avanzados, tienen el potencial de beneficiar a toda la humanidad. Pero también plantean riesgos cada vez más graves” dijo OpenAI.

Otro experto que considera que debe abordarse esta problemática es Demis Hassabis, director ejecutivo de Google DeepMind. En una entrevista con The Guardian, Hassabis mencionó que los peligros que representa la inteligencia artificial son tan serios como el calentamiento global. “Los sistemas de inteligencia artificial actuales no representan riesgos, pero las próximas generaciones pueden serlo cuando tengan capacidades adicionales como planificación y memoria”, declaró.

Hassabis propuso la creación de un organismo inspirado en el IPCC conformado por investigadores, científicos y expertos en inteligencia artificial. El objetivo sería analizar, informar y recomendar soluciones ante posibles escenarios en los que peligre la raza humana.

Recibe cada mañana nuestra newsletter. Una guía para entender lo que importa en relación con la tecnología, la ciencia y la cultura digital.

Procesando...
¡Listo! Ya estás suscrito

También en Hipertextual: