Google ha tenido que hacer frente en los últimos meses a diversas críticas relacionadas con el Proyecto Maven, un asunto en el que trabajan la empresa tecnológica con el Pentágono. Según se ha podido conocer, juntos están desarrollando el uso de inteligencia artificial aplicada a situaciones que comprometan la seguridad en ámbitos conflictivos.

No obstante, esto no ha sido bien visto por todos los empleados de la compañía de Mountain View, siendo miles los que pidieron el pasado mes de abril que se dejase de colaborar con el Departamento de Defensa estadounidense para, posteriormente, conocerse hace unos días que varios de ellos habían dimitido como consecuencia del caso omiso por parte de la empresa. Google, por su parte, insiste en que esta tecnología sirve de manera única y exclusiva "para clasificar imágenes para su revisión humana y tiene como objetivo salvar vidas y evitar a la gente tener que realizar un trabajo sumamente tedioso".

Varios empleados abandonan Google por su colaboración con el Pentágono

Un código ético para terminar con la polémica

Google prepara ahora un código ético (después de haber eliminado de su ideario como compañía el clásico "Don't be evil") que aclare los escenarios y los casos en los que puede ser utilizada la inteligencia artificial. Su colaboración con el Pentágono ha desatado el temor de que el desarrollo a ciertos niveles de la misma pueda derivar –quizá no parte de la propia empresa californiana, pero sí de los organismo militares– en usos bélicos a largo plazo.

Tal y como detalla *The New York Times*, no está claro en qué consistirá este código ético ni cómo puede suponer una diferencia de cara a un uso militarizado de estas tecnologías. Tampoco se conoce cuál será la vara de medir que utilice la compañía para determinar hasta qué punto el uso de la inteligencia artificial o el aprendizaje autónomo es válido y cuándo no lo es. Lo que sí es seguro, por ahora, es que Google intenta una huida hacia adelante para salvar su imagen y poner punto y final a un asunto cuya controversia ya se conoce desde el año pasado a nivel interno.

El medio anteriormente citado ha tenido acceso a unos documentos en los que la responsable del Proyecto Maven hablada de la controversia que podía provocar esto al hablar de ello de manera pública.

Evitad a TODA COSTA cualquier mención o implicación de AI. La IA en armamento es probablemente uno de los temas más sensibles de la IA, sino EL MÁS. Esto es carnaza para los medios de comunicación para encontrar todas las maneras de dañar a Google. [...] No sé qué pasaría si los medios comenzaran a difundir el asunto de que Google está construyendo secretamente armas de IA o tecnologías de IA para armas de la industria de defensa

Unas palabras preocupantes que tendrá ahora que esclarecer Google en esta guía en la que están trabajando. Se espera que vea la luz durante las próximas semanas.