Los principales desarrolladores de inteligencia artificial lanzaron un organismo de autorregulación llamado Frontier Model Forum (Foro del Modelo Frontier). Microsoft, Google, OpenAI (creadora de ChatGPT) y Anthropic lideran esta coalición, que espera convocar a más actores de la industria. La iniciativa surge unos días después de que el gobierno de Estados Unidos anunciara un acuerdo voluntario de las grandes tecnológicas para garantizar el desarrollo seguro de esta tecnología.

El organismo se enfocará, precisamente, en los llamados «modelos frontera»: aquellos sistemas de inteligencia artificial que superen las capacidades existentes actualmente. El grupo se ha comprometido a desarrollar, en conjunto, investigaciones que minimicen los riesgos potenciales de sus herramientas y a establecer buenas prácticas de seguridad.

«Los gobiernos y la industria están de acuerdo en que, si bien la inteligencia artificial ofrece una gran promesa para beneficiar al mundo, se requieren límites adecuados para mitigar los riesgos», dijeron las cuatro empresas en un comunicado conjunto. Aeguraron que el foro también garantizará la participación activa de los gobiernos, los académicos y la sociedad civil en general.

Las grandes tecnológicas se quieren adelantar a las iniciativas gubernamentales de regulación, que todavía se discuten en espacios como el Congreso de Estados Unidos y la Unión Europea. En Washington, el debate recién está en las primeras fases. Mientras, en Europa, ya existe un borrador formal de ley. Sin embargo, recién hace un mes empezaron las negociaciones con los Estados y podría pasar mucho tiempo antes de que entre en vigor.

El foro informó que creará una junta asesora y ejecutiva en los próximos meses. También organizará un equipo de trabajo que definirá el financiamiento del proyecto. En el comunicado resaltaron que la membresía está abierta a otras compañías y organizaciones.

Las dudas sobre un organismo autorregulatorio para la inteligencia artificial

«Las empresas que generan tecnología de inteligencia artificial tienen la responsabilidad de garantizar que sea segura y permanezca bajo control humano», dijo Brad Smith, presidente de Microsoft, sobre la creación del foro. Por su parte, Anna Makanju, vicepresidenta de Asuntos Globales de OpenAI, indicó que el trabajo que tienen pendiente es «urgente». Confió en que el grupo está posicionado para «actuar rápidamente para mejorar el estado de la seguridad de la inteligencia artificial».

El organismo de inteligencia artificial, sin embargo, no deja de ser una propuesta autorreguladora y esto ya genera suspicacia en varias organizaciones y activistas. «La historia indicaría que muchas empresas de tecnología en realidad no cumplen con un compromiso voluntario de actuar de manera responsable», señaló Jim Steyer, director de la organización estadounidense Common Sense Media, en Times. Menciona como ejemplo todos los problemas de seguridad relacionados con el desarrollo de las redes sociales.

Es preocupante que los gobiernos cedan el liderazgo al sector privado, dijo Andrew Rogoyski, del Instituto de Inteligencia Artificial centrada en las personas de la Universidad de Surrey. «Es una tecnología tan poderosa, con un gran potencial para el bien y el mal, que necesita una supervisión independiente que represente a las personas, las economías y las sociedades», dijo a The Guardian.

Logotipo OpenAI con texto ChatGPT

Aplicaciones para el bien

El Foro del Modelo Frontier también se ha propuesto impulsar el desarrollo de aplicaciones que permitan que abordar los grandes desafíos de la sociedad. Mencionaron al cambio climático, la prevención del cáncer y la lucha contra las ciberamenazas.

A diferencia del acuerdo voluntario anunciado por la Casa Blanca la semana pasada, en este foro no participan, por ahora, Amazon y Meta. Entre los compromisos prácticos de este pacto, figura la generación de una «marca de agua» que permita alertar al público cuando una imagen, video o texto fue creado por inteligencia artificial. Las compañías también prometieron que se someterán a auditorías por parte de externos independientes.

Están en marcha otras dos grandes iniciativas sobre políticas que garanticen la seguridad de la inteligencia artificial. Una corre por cuenta del secretario general de la Organización de Naciones Unidas, António Guterres, quien anunció el mes pasado que formará antes de fin de año una junta asesora integrada por expertos y científicos. La otra es el «Proceso de Hiroshima», un marco intergubernamental de los países del G7 para discutir estándares de protección.

Recibe cada mañana nuestra newsletter. Una guía para entender lo que importa en relación con la tecnología, la ciencia y la cultura digital.

Procesando...
¡Listo! Ya estás suscrito

También en Hipertextual: