La implicación de Google en el Proyecto Maven, a través del cual desarrollaba tecnología de inteligencia artificial para el Pentágono, ha terminado por ser el dolor de cabeza que los responsables del mismo quisieron eludir por todos los medios. La petición por parte de miles de empleados de la compañía para que cesaran su colaboración con el Departamento de Defensa de Estados Unidos –que fue lo que puso en el punto de mira este acuerdo– ha derivado en las últimas semanas en la dimisión de varios de ellos y, en última instancia, provocado la intención de la tecnológica de cancelar dicho proyecto.
En relación con ello, sabíamos hace unos días que la tecnológica trabajaba en una guía o compendio de normas acerca del uso y aplicación de la inteligencia artificial. Una serie de puntos que les permitiría esclarecer en cierta medida su postura ante las informaciones surgidas al tiempo que alejaría una polémica cada vez mayor y que ya han sido publicadas.
Google cancela su colaboración con el Pentágono en el proyecto de IA para fines militares
Un consenso sobre lo bueno y lo malo (según Google)
"Evitad a TODA COSTA cualquier mención o implicación de AI. La IA en armamento es probablemente uno de los temas más sensibles de la IA, sino EL MÁS. Esto es carnaza para los medios de comunicación para encontrar todas las maneras de dañar a Google", decía a sus empleados la responsable del proyecto a finales del año pasado en un correo interno. "No sé qué pasaría si los medios comenzaran a difundir el asunto de que Google está construyendo secretamente armas de IA o tecnologías de IA para armas de la industria de Defensa".
Con semejantes premisas, era imperante que Google fuera muy clara en la que es su primera comunicación en firme respecto al uso futuro de la inteligencia artificial en cualquier campo, una tecnología que ha ido cobrando protagonismo en la firma de Mountain View a lo largo de los últimos años. Sundar Pichai, CEO de la empresa, publica ahora bajo su nombre las que conforman las pautas que tendrán en cuenta a partir de ahora en los que a la aplicación y desarrollo de la inteligencia artificial se refiere.
Según Pichai, ellos creen que la inteligencia artificial debe: ser beneficiosa para la sociedad, evitar crear o reforzar situaciones injustas, ser desarrollada y probada para garantizar su seguridad, ser gestionada por las personas, incorporar diseños de privacidad, mantener altos estándares de excelencia científica y, por último, estar disponible para los usos que estén de acuerdo con estos principios.
Mientras que estas pautas entran dentro de lo que cabría esperar por parte de la compañía, lo más interesante se encuentra en el siguiente apartado, el cual se refiere a las aplicaciones que no consideran oportunas y que, por consiguiente, no tienen cabida dentro del ideario de la compañía. Aquí Google señala de manera clara que la inteligencia artificial que ellos desarrollen no será utilizada con fines armamentísticos, uno de los principales factores que desencadenó la petición masiva de sus empleados para abandonar el Proyecto Maven. El CEO añade también que no serán aceptables los usos que sean proponemos de causar un daño generalizado ni que violen la privacidad, las leyes internacionales o los derechos humanos.
No obstante, y a pesar de todo esto, Google no cesará en su colaboración en proyectos militares. Aunque en la publicación aseguran que no será nada relacionado con las armas (se señalan apartados como la seguridad virtual, entrenamiento, reclutamiento militar, atención médica para veteranos o búsqueda y rescate), afirman al mismo tiempo que "Cuando exista un riesgo material de daño, procederemos solo cuando consideremos que los beneficios superan sustancialmente los riesgos e incorporaremos las restricciones de seguridad apropiadas". La pregunta es clara: ¿dónde quedará determinada la línea de aquello que es aceptable y lo que no?
Una traición a los principios
La inteligencia artificial es una de las áreas que cuenta con más potenciales aplicaciones en diversos escenarios y que se posiciona de cara a los próximos años con gran atractivo para unos organismos de Defensa estatales que están dispuestos a invertir grandes sumas de dinero en ser los primeros en contar conciertas tecnologías. Que Google continúe manteniendo la colaboración con ellos es otro de los puntos que temían los empleados que se posicionaron en contra pues, aunque la compañía asegure que las intenciones son buenas por su parte, nadie sabe qué uso podría acabar dando un Gobierno a las diversas tecnologías una vez se encuentren en su poder o qué otras podría desarrollar con las bases obtenidas.
Algo especialmente preocupante teniendo en cuenta que la propia empresa ha admitido que, probablemente, no habría participado nunca en el Proyecto Maven si estos principios hubieran estado presentes al comienzo de la colaboración con el Pentágono. Algunos de los trabajadores de la compañía ya han manifestado su descontento ante lo que califican como una "nota de prensa hueca". El nivel de detalle ofrecido por Google deja varias cuestiones en el aire que tendrán que seguir resolviendo conforme pase el tiempo y la inteligencia artificial ocupe un puesto más relevante no solo en sus operaciones, sino en la sociedad en general.
No es especialmente tranquilizador tampoco, como comentaba anteriormente, que Google pueda plantearse en cierto punto hacer de juez y parte en un entorno en el que exista riesgo de causar un cierto daño, del tipo que sea. No hay que perder de vista que los intereses de la compañía, por muy enfocados al beneficio de la sociedad que quieran aparentar, siempre contarán con el trasfondo lucrativo inherente a toda empresa que influye de manera determinante en las decisiones.
El conjunto de todo ello se antoja como un escenario donde los cabos sueltos son demasiados en una declaración de intenciones que no por estar firmada por el propio Pichai consigue ser todo lo categórica que debiera. Así y todo, por fin vemos una reacción necesaria por parte de Google que podría dar pie a una mayor apertura en un tema tan sensible y necesario como la inteligencia artificial.