La Cumbre sobre Seguridad de la Inteligencia Artificial, celebrada esta semana en Reino Unido, cerró este jueves con el compromiso de las principales tecnológicas de trabajar junto con los gobiernos en las futuras pruebas de sus nuevos modelos. Y, de esta forma, limitar los riesgos relacionados con esta tecnología, que los países presentes han descrito como potencialmente catastróficos en una declaración conjunta.

El primer ministro británico, Rishi Sunak, destacó que Estados Unidos, la Unión Europea y otros países habían acordado con un grupo selecto de empresas el testeo riguroso de los modelos de inteligencia artificial, antes y después de su lanzamiento al público. Representantes de OpenAI, Anthropic, Google, Microsoft, Meta y xAI participaron de las sesiones de este jueves en las que se discutieron estas pruebas.

Para avanzar en este sentido, le han pedido a Yoshua Bengio, informático canadiense y reconocido como uno de los padrinos de la inteligencia artificial, que dirija la elaboración un informe sobre el «estado de la ciencia». El reporte ayudará a comprender las capacidades actuales de la tecnología y priorizar los peligros relacionados. Bengio fue ganador del Premio Turing y es miembro del Consejo Asesor Científico de la ONU.

«Hasta ahora, las únicas personas que han probado la seguridad de los nuevos modelos de IA han sido las mismas empresas que los desarrollan», dijo Sunak en un comunicado. «No deberíamos depender de ellos para que corrijan sus propios deberes, como muchos de ellos coinciden».

El gobierno británico dio que las empresas y gobiernos han apoyado la creación de un nuevo centro global de pruebas con sede en el Reino Unido. Adelantó que se pondrá especial atención en los peligros para la seguridad nacional y la sociedad.

Ilustración robot humanoide IA

China quedó afuera de las pruebas para reducir los riesgos de la inteligencia artificial

El primer día de la cumbre había dado una rara muestra de unidad global. El encuentro fue inaugurado por Michelle Donelan, secretaria de tecnología del Reino Unido, acompañada de la secretaria de Comercio de Estados Unidos, Gina Raimondo, y el viceministro chino de ciencia y tecnología, Wu Zhaohui.

China, de hecho, es uno de los 28 países firmantes de la Declaración de Bletchley, en la que los gobiernos coincidieron en exigir transparencia y rendición de cuentas de las empresas que desarrollan sistemas de inteligencia artificial. También acordaron crear planes para medir, monitorear y mitigar las capacidades potencialmente dañinas.

El representante de China, sin embargo, no estuvo presente el jueves y no ratificó el acuerdo sobre las pruebas. Sunak había despertado la polémica en el parlamento de su país por haber invitado al gobierno chino a la cumbre. Se le criticó por desconocer la resistencia de muchos países de occidente a colaborar en materia tecnológica con Beijing.

El primer ministro ha dicho en su defensa que un tema tan importante necesita de la participación de los principales actores. Además, Sunak ha insistido en la relevancia que Reino Unido podría tener como intermediario entre los bloques económicos de EE. UU., China y la Unión Europea.

https://twitter.com/10DowningStreet/status/1719843178247790909

Riesgos existenciales y riesgos «reales»

La vicepresidenta Kamala Harris, líder de la comitiva de EE. UU., dijo que la «acción audaz» de su gobierno debería ser «inspiradora e instructiva» para otros países. Harris señaló el foco principal debería estar puesto en cómo la inteligencia artificial podría ampliar la desigualdad dentro de las sociedades y entre países.

La funcionaria estadounidense ya había insistido el miércoles en la necesidad de adoptar un «enfoque más práctico», que no se limite a evaluar los riesgos existenciales. «Hay amenazas adicionales que también exigen nuestra acción, amenazas que actualmente están causando daño y que muchas personas también consideran existenciales», dijo Harris.

La vicepresidenta citó el ejemplo de un anciano que canceló su plan de atención médica debido a un algoritmo de inteligencia artificial defectuoso. También mencionó el caso de una mujer que fue amenazada por una pareja abusiva con fotos modificadas. Hay que trabajar «en todo el espectro», dijo Harris, más allá de las amenazas existenciales sobre ciberataques masivos o armas biológicas.

La clonación de identidad, la conducción autónoma por inteligencia artificial y las campañas de desinformación figuran como otros de los peligros más cotidianos detectados en el desarrollo de esta tecnología. En este sentido, Harris anunció un nuevo instituto de seguridad de inteligencia artificial en EE. UU. Estará orientado a elaborar estándares para probar sistemas de uso público y colaborará con el centro de pruebas de Reino Unido anunciado por Sunak.

Un fondo para ayudar a países africanos

La oficina de Sunak también informó que los gobiernos habían dado el visto bueno para compartir los resultados de las evaluaciones con otros países «cuando sean relevantes». Explicó que parte del objetivo es crear estándares compartidos para mitigar los riesgos sobre la inteligencia artificial.

El secretario de Asuntos Exteriores de Reino Unido, James Cleverly, anunció por su parte un nuevo fondo de 100 millones de dólares. La iniciativa está respalda por EE. UU. y otros gobiernos y pretende ayudar en el despliegue de esta tecnología en África. Por ejemplo, incluyendo 46 idiomas africanos en el desarrollo de algunos modelos de inteligencia artificial.

El secretario general de la ONU, Antonio Guterres, también asistió a la cumbre, que se realizó en el Bletchley Park, sede de los esfuerzos de descifrado de códigos del Reino Unido durante la Segunda Guerra Mundial. Guterres instó a un esfuerzo global coordinado, comparando los riesgos de la inteligencia artificial con la amenaza nazi, que los descifradores de códigos británicos lucharon por combatir. «La amenaza que plantea la IA es más insidiosa, pero podría ser igual de peligrosa», dijo.

La ONU creó el mes pasado el primer organismo global en torno a la gobernanza de la inteligencia artificial. Está conformado por un grupo asesor de 39 miembros, que pertenece a instituciones, gobiernos y tecnológicas de todo el mundo. Ejecutivos de Microsoft, Google y OpenAI forman parte del grupo. Este se ha propuesto entregar su propio reporte de diagnóstico antes de que termine el año.