En los últimos 4 meses, ChatGPT y la IA generativa han acaparado la atención del mundo. Y el reciente lanzamiento de GPT-4, la nueva versión del modelo de lenguaje que lo potencia, no ha hecho más que agigantar el interés sobre este tipo de tecnología. Aunque también ha llevado a muchos a preguntarse, con mayores o menores fundamentos, qué tan seguros son estos desarrollos y si pueden representar algún tipo de peligro hacia el futuro. Temores de los cuales ni siquiera el propio Sam Altman ha podido escapar.
En diálogo con ABC News, el CEO de OpenAI, habló sobre GPT-4 y dejó en claro qué le aterra de esta nueva tecnología. Ciertamente, los miedos del empresario están lejos de una hipotética rebelión de las máquinas a lo Terminator, si no que se relacionan con amenazas que ya existen y que podrían escalar con el mal uso de herramientas como ChatGPT.
El principal temor de Sam Altman es que su utilice a GPT-4 para desinformar. "Me preocupa especialmente que estos modelos puedan usarse para la desinformación a gran escala", dijo el ejecutivo, quien explicó que el principal problema de su inteligencia artificial es caracterizado internamente como "alucinaciones". Esto se debe a que la inteligencia artificial utiliza razonamiento deductivo, con el objetivo de predecir la próxima palabra, en lugar de un sistema de memorización. Así se busca que las interacciones con los usuarios sean más fluidas, aunque con sus lógicos elementos en contra.
"El modelo afirmará con confianza cosas que son inventadas, como si se tratara de hechos. [...] La forma correcta de pensar en los modelos que creamos es como si fuera un motor de razonamiento, no una base de datos fáctica. También pueden actuar como una base de datos fáctica, pero eso no es realmente lo que tienen de especial. Lo que queremos que hagan es algo más cercano a la capacidad de razonar, no de memorizar", explicó el CEO de OpenAI.
GPT-4 y ChatGPT, como posibles herramientas para ciberataques
El otro gran temor de Sam Altman ante los posibles malos usos de GPT-4, es que se lo implemente como aliado para ataques informáticos. "Ahora que [los modelos de lenguaje] se están volviendo mejores para escribir código, podrían ser utilizados en ciberataques ofensivos", explicó.
Pero el CEO de OpenAI también dejó en claro que es necesario plantear estos posibles escenarios negativos ante la sociedad, y adaptarse según sea necesario. Esa es una de las claves, según Altman, de por qué se ha decidido permitir el acceso al público general a través de ChatGPT.
"Si desarrolláramos esto en secreto, en nuestro pequeño laboratorio, e hiciéramos GPT-7 y luego lo arrojáramos al mundo sin avisar, creo que sería una situación con muchas más desventajas. La gente necesita tiempo para actualizarse, para reaccionar, para acostumbrarse a esta tecnología, y para comprender dónde están las desventajas y cuáles pueden ser las mitigaciones", explicó.
Un elemento crucial para evitar los malos usos de GPT-4, así como de sus sucesores, será la implementación de medidas de seguridad irrevocables. Sin embargo, el líder de OpenAI expresó su preocupación ante la posibilidad de que otros desarrolladores estén menos interesados en adoptar ese compromiso. "Una cosa que me preocupa es que no seremos los únicos creadores de tecnologías de este tipo. Habrá otras personas que no implementarán algunos de los límites de seguridad que nosotros sí le ponemos", destacó.
La regulación de la IA
Recientemente, Elon Musk dijo que la IA es uno de los mayores riesgos para el futuro de la civilización, y habló sobre regularla. Sobre esto último, Sam Altman parece tener una postura bastante similar a la del magnate, uno de los fundadores de OpenAI.
El CEO de la firma a cargo de GPT-4 aseguró estar en contacto recurrente con funcionarios de gobierno de Estados Unidos. Además, manifestó que el éxito de herramientas como ChatGPT depende tanto del involucramiento de la sociedad, como de los reguladores. "Creo que la sociedad tiene una cantidad limitada de tiempo para descubrir cómo reaccionar ante esto, cómo regularlo, cómo manejarlo", aseveró.