Un nuevo día, una nueva advertencia sobre cómo la inteligencia artificial podría destruirnos como civilización. Esta vez, llega desde un grupo de empresarios, expertos y científicos top del sector, encabezados por Sam Altman, el creador de ChatGPT. Los mismos han publicado un escueto comunicado aseverando que el potencial "riesgo de extinción" que representa la IA debería tratarse con la misma importancia que otros eventos catastróficos globales como una guerra nuclear.
El mensaje en cuestión lleva la firma de personalidades notorias del mundo de la inteligencia artificial, pero llama la atención por su brevedad. Son apenas una veintena de palabras que resume una expresión de preocupación, más que un plan de acción específica para evitar la supuesta aniquilación.
"Mitigar el riesgo de extinción por la IA debería ser una prioridad mundial, junto con otros riesgos a escala social como las pandemias y la guerra nuclear", dice el comunicado. El texto se publicó en la web del Center for AI Safety, una organización sin fines de lucro. Aunque, siendo sinceros, hasta parece escrito por ChatGPT.
Sin embargo, existe un motivo sobre el porqué de tan breve mensaje para expresar una advertencia tan grande. De acuerdo con el organismo, son muchas las partes que hoy están discutiendo los riesgos de la inteligencia artificial, incluyendo a expertos, legisladores, periodistas y el público en general. No obstante, consideran que es difícil comunicar de forma sencilla y contundente los peligros más severos e inmediatos que trae consigo la tecnología. Con este mensaje, entonces, pretenden "abrir la discusión" y dar a conocer quiénes son los especialistas que se toman en serio esta problemática.
Claro que Sam Altman no es el único firmante de este mensaje. Además del creador de ChatGPT, aparecen nombres como el de Demmis Hassabis, CEO de Google Deepmind, Dario Amodei, CEO de Anthropic, Emad Mostaque, CEO de Stability AI o Kevin Scott, jefe tecnológico de Microsoft. Así como investigadores de la talla de Geoffrey Hinton, Yoshua Bengio y Lex Fridman, entre muchos otros.
¿Son ChatGPT y otras IA un riesgo de extinción para la civilización?
Más allá del curioso modo que han elegido los expertos para expresar su preocupación por la IA, el comunicado invita a leer entre líneas. Lo que dicen no necesariamente significa que crean que Bard o ChatGPT sean capaces de convertirse en Skynet y desatar la rebelión de las máquinas.
No obstante, sí plantean que el impacto de la inteligencia artificial en la vida cotidiana de millones de personas no debe dejarse librado al azar. Por ende, consideran necesario estudiar e implementar las salvaguardas necesarias para que, en el futuro, la IA no se pueda aplicar a métodos destructivos cuya severidad esté al mismo nivel de una guerra nuclear o una pandemia. Algo que, ciertamente, va de la mano con el debate sobre regular esta tecnología. Una discusión que incluso está siendo impulsada por los propios pesos pesados del sector, como la startup de Sam Altman.
En ese sentido, el comunicado publicado por el Center for AI Safety parece alejarse de la controversial carta abierta impulsada por Elon Musk. Esta última le apuntaba directamente a OpenAI y proponía frenar por 6 meses el desarrollo de modelos de lenguaje más poderosos que GPT-4. Los expertos que acompañaban al magnate consideraban que la tecnología tras ChatGPT, Bing o Copilot X podía traer "efectos catastróficos para la sociedad". Lo curioso del caso es que varios firmantes de aquella misiva, hoy también acompañan el nuevo comunicado.
Los riesgos de la IA
Pese a lo escueto del comunicado impulsado por el creador de ChatGPT y las principales mentes del mundo de la IA, ya existe mucha documentación sobre los riesgos de esta tecnología. De hecho, el Center for AI Safety ha recopilado algunos ejemplos sobre cómo la inteligencia artificial podría utilizarse para fines nefarios. Algunos son de potencial aplicación actual, en tantos que otros apuntan más hacia el futuro.
En tal sentido, se menciona la posibilidad de convertir a la IA en un arma. "Los métodos de aprendizaje de refuerzo profundo ya se han aplicado al combate aéreo, y las herramientas de aprendizaje automático para el descubrimiento de drogas podrían usarse para construir armas químicas", explican. Además, se habla del uso de la tecnología para desinformar. Algo que ya hemos visto en recientemente con las fotos del supuesto arresto de Donald Trump o la falsa ministra de Sanidad de Japón.
Otro peligro que supone la inteligencia artificial es que los sistemas más competentes puedan concentrar mucho poder en un grupo muy pequeño de personas. Algo que, de hecho, ya se le ha criticado a OpenAI tras el furor de herramientas como Dall-E y ChatGPT. Al punto tal que Sam Altman desmintió que su tecnología esté evolucionando sin control, y aseguró que hoy ni siquiera piensan en desarrollar un GPT-5.
Si los riesgos de la IA realmente se ponen a la altura de otros eventos catastróficos, será interesante ver cómo se aborda su potencial regulación. Algo que lejos está de depender únicamente de la buena voluntad de expertos y científicos. El involucramiento de los legisladores también será crucial; y ni que hablar de las empresas que hoy invierten miles de millones de dólares. Pero no olvidemos que los peligros de la inteligencia artificial son solo una parte de una historia mucho más amplia, y que la tecnología también abarca potenciales grandes beneficios para la humanidad. En especial al hablar de educación y salud.
Por ello, como dijo Bill Gates recientemente, es necesario lograr un balance. "Deberíamos tratar de equilibrar los temores sobre las desventajas de la IA, que son comprensibles y válidos, con su capacidad para mejorar la vida de las personas. Para aprovechar al máximo esta nueva y notable tecnología, debemos protegernos contra los riesgos y distribuir los beneficios a la mayor cantidad de personas posible", manifestó el cofundador de Microsoft.