La inteligencia artificial empezó concibiéndose como algo muy especializado, que solo unas pocas personas podían usar. Sin embargo, hoy en día cualquiera que lo desee tiene acceso a ella a través de algoritmos como el de ChatGPT, por ejemplo. Por eso, muchas personas alertan de la importancia de diseñar correctamente estos algoritmos, dejando claros cuáles son sus objetivos, para que no nos den sorpresas desagradables. Una de las personas que más hincapié ha hecho en este tema es el filósofo Nick Bostrom, quien en 2014 explicó con un ejemplo muy sencillo qué podría ocurrir si esto no se hace adecuadamente.
Puso como ejemplo una inteligencia artificial cuyo objetivo es fabricar clips. No se le da ningún otro objetivo, solo ese. A la larga, según este filósofo especializado en la ética de la IA, podría aniquilar a la humanidad.
Utilizó este ejemplo porque es algo aparentemente muy inocente; pero, según él, podría extrapolarse a casi cualquier inteligencia artificial. Por eso, es de gran importancia definir cuáles son sus objetivos y dejar claro que estos algoritmos deben servir a la humanidad. Si no se hace adecuadamente, no tendrán motivos para intentar protegerla.
¿Cómo puede una inteligencia artificial que hace clips destruir a la humanidad?
Obviamente, todo esto es una hipótesis que Bostrom planteó para alertar de la importancia de los objetivos. Esta inteligencia artificial no existe. Pero, aun así, veamos cómo podría aniquilar a todos los seres humanos.
Se trataría de un algoritmo sencillo al que se le da un único objetivo: fabricar la mayor cantidad posible de clips. Empezaría a hacerlo sin parar, pero, dado que se trata de un algoritmo capacitado para calcular todas las posibilidades, llegaría un punto en el que concebiría a los humanos como un estorbo. En cualquier momento, alguna persona podría apagarlo y, entonces, no podría fabricar el mayor número posible de clips. Además, los seres humanos tienen átomos que podrían convertirse en más clips. Se están desperdiciando.
Este es un ejemplo extremo. Pero sirve para ver la importancia de definir los objetivos de los algoritmos de inteligencia artificial a medida que estos se van volviendo más eficientes.
Deben servir a los humanos
Cuando planteó su ejemplo, Bostrom explicó que uno de esos objetivos que se deben definir es que la inteligencia artificial siempre debe servir a la humanidad. Si esto no se deja claro y solo trabaja por los intereses de una sola persona o colectivo, el resto se considerarán innecesarios.
En definitiva, la inteligencia artificial es útil. Mucho. No obstante, se deben poner límites y dejar muy claro para qué se necesita y cómo debe trabajar. Como dijo Bostrom en su día: “Tenemos que tener cuidado con lo que deseamos de una superinteligencia, porque podríamos conseguirlo”. De hecho, podría ir incluso mucho más allá de lo que deseamos. Para que eso no ocurra, se deben plantear muy bien los algoritmos antes de diseñarlos. Está claro que, ahora que empieza a estar en auge, hay mucho que legislar y mucha ética que discutir. Pero, más allá de eso, también hay mucha tecnología que diseñar concienzudamente para no llevarnos sorpresas.