Dejar una IA a su libre albedrío puede ser muy peligroso. De hecho, hace años un experto en la ética de la inteligencia artificial puso un ejemplo en el que un algoritmo diseñado para fabricar el mayor número posible de clips, podría destruir a la humanidad. Aun así, en China han querido hacer el experimento de poner una IA al mando de uno de sus satélites de observación de la Tierra. Y lo que han encontrado, si es lo que sospechan, resulta aterrador.
Inicialmente, pensaron que la inteligencia artificial puso su atención en puntos aleatorios del planeta, sin ningún interés concreto. Sin embargo, al estudiar las zonas elegidas, comprobaron que todas tenían un historial de conflictos con China. Por lo tanto, podría ser que la IA estuviese buscando un enfrentamiento.
También puede que sea todo casualidad, pero hay motivos para temer que no sea así. En consecuencia, este experimento, como el ejemplo teórico de aquel experto en ética, pone de manifiesto la importancia de dar objetivos concretos a la inteligencia artificial. Si se les deja actuar sin límites, parece ser que los seres humanos no están entre sus prioridades.
La inteligencia artificial a los mandos de un satélite
Este experimento ha sido descrito en un artículo del South China Morning Post. Los investigadores cuentan cómo, a pesar de ir en contra de la misión que tenían en marcha, decidieron dejar una inteligencia artificial al mando de uno de sus satélites durante 24 horas. No se le dio ningún tipo de instrucciones ni objetivos. Simplemente se la dejó libremente, para ver dónde centraba la atención del satélite Qimingxing 1.
Inicialmente, los objetivos escogidos llamaron su atención. Primero se enfocó en Patna, una gran ciudad de la India, ubicada junto al río Ganges. Centró su observación ahí durante mucho tiempo y, después, tras un nuevo escaneo, se dirigió al puerto japonés de Osaka.
Podrían ser lugares aleatorios. Sin embargo, basta con un breve vistazo a la historia para ver que, posiblemente, no lo sean.
Los objetivos bélicos de la IA
Durante décadas, China y la India han mantenido una disputa fronteriza por el valle de Galwan, ubicado junto al Tíbet. Si bien este fue declarado como parte de la India cuando esta pertenecía a Reino Unido, China no se ha mostrado conforme con ello.
El desacuerdo provocó a un conflicto muy antiguo, aunque este no echó chispas hasta 2020, cuando murieron los primeros soldados en la frontera. En pleno inicio de la pandemia de COVID-19, la India denunció la muerte de 20 de sus soldados en la región de Cachemira, a manos del ejército chino.
Patna no se encuentra en pleno valle de Galwan, pero sí en el noreste del país, cerca del Tíbet. Además, uno de los soldados fallecidos, Sunil Kumar, procedía de esta ciudad. Por eso, una búsqueda de información por parte de la IA podría haberla seleccionado como objetivo bélico.
En cuanto a Osaka, se sabe que su puerto ocasionalmente alberga buques de la Armada de los Estados Unidos que operan en el Pacífico.
Todo esto indica que, quizás, la elección de esos dos puntos no fue aleatoria por parte de la inteligencia artificial. Podría ser que estuviese seleccionando objetivos bélicos basándose en información histórica de su país. Dado que no se le dio ninguna misión, el algoritmo pudo centrarse solo en su propietario: el gobierno chino. Ya lo alertó el experto en ética. La IA no sabe defender a la humanidad, solo entiende para quién trabaja y es en lo único que se centrará. Por lo tanto, si no buscamos un conflicto, debemos dejarle muy claro cuál es su trabajo. La inteligencia artificial puede ser muy útil, pero siempre que no se deje nada al azar.