La increíble conversación entre la IA de Google y un ingeniero podrían haber marcado un precedente respecto a la manera en que la humanidad ve a la inteligencia artificial. Habitualmente usamos esta tecnología para facilitarnos múltiples procesos que, de otra forma, serían mucho más complejos y tardados. Sin embargo, el potencial que tiene esta herramienta va más allá de las actividades que puede realizar un usuario común; y es aquí donde comienzan a surgir algunas preocupaciones.

Que la inteligencia artificial de Google sea consciente de su existencia, e incluso tema ser "desconectada", es un tema que no se puede tomar a la ligera pese a que los Mountain View intentaron calmar las aguas. Ahora bien, también es cierto que esta no es la primera vez que las capacidades de la IA nos ponen a pensar si realmente estamos teniendo cuidado con su desarrollo. De hecho, en el pasado personas como Elon Musk y Stephen Hawking ya habían externado sus inquietudes al respecto.

El científico británico nunca ocultó su temor por el peligro que representa una máquina avanzada que pudiera superar al pensamiento humano y evolucionar por sí misma. Es decir, que en algún momento tuviera la capacidad de ser independiente y crecer intelectualmente a un ritmo mucho más rápido que el de los humanos, pues una IA no debe lidiar con obstáculos biológicos.

"El desarrollo de una inteligencia artificial completa podría significar el fin de la raza humana", expresó tajantemente Stephen Hawking en 2014. "Despegaría por sí sola y se rediseñaría a un ritmo cada vez mayor. Los humanos, que están limitados por una evolución biológica lenta, no podrían competir y serían superados", agregó el científico.

YouTube video

Elon Musk llama a regular la inteligencia artificial

El caso de Elon Musk no es muy distinto. También durante 2014, el fundador de Tesla, SpaceX y OpenIA, advirtió: "Debemos ser sumamente cuidadosos con la inteligencia artificial. Es potencialmente más peligrosa que las armas nucleares". El magnate incluso hizo una referencia a Terminator, la película de James Cameron donde la IA Skynet comienza a operar más allá de su programación y se revela contra los humanos hasta desatar el Apocalipsis.

En 2017, adoptando un tono aún más serio porque estaba frente a los gobernantes de cada estado de EE. UU., Elon Musk expresó que la inteligencia artificial era un problema más "aterrador" del que parecía porque podría representar un "riesgo existencial para la civilización humana", y agregó:

"Hasta que la gente no vea a los robots matar a personas por la calle no se entenderán los peligros de la inteligencia artificial. Los robots podrán hacer todo mejor que nosotros. Estamos expuestos a una IA más vanguardista y creo que la gente debería estar realmente preocupada por ello."

Por tal motivo, cree que las autoridades deben involucrarse más en este sector para crear una regulación que prevengan una posible catástrofe; de lo contrario será demasiado tarde. "Suelo estar en contra de las regulaciones estrictas, pero en inteligencia artificial la necesitamos", añadió.

Creando OpenAI con una inquietud en mente

Inteligencia artificial, IA

Ahora bien, es posible que las declaraciones tan contundentes de Elon Musk te generen los siguientes cuestionamientos. ¿Por que alguien que denota preocupación por la IA se apoya en ella para impulsar las empresas que lidera? ¿Por qué fundó OpenAI si la inteligencia artificial es potencialmente peligrosa? Musk puede defenderse.

OpenAI, que opera como una organización sin fines de lucro, nació con el propósito de desarrollar soluciones de inteligencia artificial que beneficien a la humanidad. De hecho, su fundación tomó en cuenta todas esas inquietudes que el propio Elon Musk tiene sobre la IA, ya que la compañía tiene definidos varios límites sobre hasta dónde puede llegar.

Esos límites no se refieren a una cuestión técnica, sino moral —si así se quiere ver—. OpenAI garantiza servir única y exclusivamente a la voluntad humana. Por lo tanto, al menos de su parte no existirá un desarrollo que pudiera permitir que una IA se desempeñe de manera totalmente independiente para cumplir objetivos propios.

Inteligencia artificial, IA

"Es difícil comprender cuánto podría beneficiar a la sociedad una IA de nivel humano, pero también cuánto podría dañar a la sociedad si se construye o se usa incorrectamente", mencionan desde OpenAI, y añaden:

"Debe ser una extensión de las voluntades humanas individuales y, en el espíritu de libertad, distribuido de la manera más amplia y uniforme posible. ¿Estamos realmente dispuestos a dejar que nuestra sociedad sea infiltrada por agentes autónomos de software y hardware cuyos detalles de operación son conocidos solo por unos pocos elegidos? Por supuesto que no."

El problema, claro, es que OpenAI atiende una normativa propia que, de momento, no se ha extendido hacia otras empresas especializadas en la investigación de la inteligencia artificial. Es por esta razón que Elon Musk instó a los gobiernos a involucrarse activamente en la regulación de la IA.

Sí, pensar en que los acontecimientos ficticios de Terminator pueden hacerse realidad es irse al extremo. No obstante, hasta hace poco no imaginábamos que una IA sería consciente de su existencia; por lo menos no pronto. ¿Veremos una reacción de los reguladores? Quizá la conversación proveniente de Mountain View acelere el proceso....

Recibe cada mañana nuestra newsletter. Una guía para entender lo que importa en relación con la tecnología, la ciencia y la cultura digital.

Procesando...
¡Listo! Ya estás suscrito

También en Hipertextual: