Google continúa trabajando con el Pentágono en el denominado Proyecto Maven, un programa en el cual varias de las grandes tecnológicas del país ayudan al Departamento de Defensa estadounidense a desarrollar una cierta tecnología relacionada con la inteligencia artificial y los drones. Mientras que en otro campo quizá esto no hubiera parecido nada demasiado relevante, el hecho de que esta sección del Gobierno esté involucrada ha provocado recelo en algunos de los empleados de la compañía de Mountain View.

El mes pasado miles de ellos recogían firmas en un documento en el que se solicitaba el cese de la colaboración de la compañía con el Gobierno alegando que, de manera directa o indirecta, Google no debe inmiscuirse en modo alguno en asuntos bélicos. Si bien la compañía afirma que el uso no es otro que el de salvar vidas y hacer más fácil el trabajo, los trabajadores de la empresa tecnológica temen que el Pentágono pueda un día militarizar el uso de estos sistemas y pervertir su finalidad original.

Cuestión de ética

Hoy se ha conocido que al menos doce empleados de Google han abandonado la compañía en las pasadas semanas como consecuencia de la nula respuesta tras la publicación de la carta abierta dirigida a la empresa en abril, según relata Gizmodo. "En algún momento, me di cuenta de que no podía recomendar de buena fe a nadie que se uniera a Google, sabiendo lo que sabía. Me di cuenta de que si no puedo recomendar que la gente se una, ¿por qué sigo aquí?", ha relatado uno de los antiguos empleados al citado medio.

En la presente jornada se ha hecho pública una nueva carta abierta dirigida a varios de los principales directivos de Google y firmada por decenas de académicos especialistas en tecnología e inteligencia artificial. En ella se vuelve a reiterar el deseo de que la compañía salga del Proyecto Maven debido a las implicaciones que puede suponer en un futuro cercano.

A medida que los comandantes militares vean que los algoritmos de reconocimiento de objetos son fiables, será tentador atenuar o incluso eliminar la revisión y supervisión humana para estos sistemas. [...] Estamos a solo un paso de autorizar el uso de drones autónomos para matar automáticamente, sin supervisión humana o control humano significativo. Si la acción ética por parte de las compañías tecnológicas requiere considerar quiénes podrían beneficiarse de una tecnología y quién podría verse perjudicado, entonces podemos decir con certeza que ningún tema merece una reflexión más seria.

La inteligencia artificial, como ha quedado demostrado de manera reciente, es una de las áreas de trabajo más importantes para una Google que en la actualidad cuanta con una enorme cantidad de datos personales para poder refinar estas herramientas. La compañía, por el momento, no se ha pronunciado al respecto.