La inteligencia artificial es uno de los temas calientes del panorama tecnológico en la actualidad. Con cada vez más aplicaciones y avances que hacen posible un uso extensivo de ella en toda suerte de áreas, las empresas están destinando más recursos que nunca a un área que puede aportar grandes beneficios, pero que también es posible que sea utilizada para fines menos nobles.

Precisamente para que esto último no ocurra, Sundar Pichai, CEO de Alphabet, matriz de Google, solicita en un artículo publicado este lunes una mayor regulación en dicho ámbito, alegando que "debemos tener los ojos bien abiertos ante lo que podría salir mal".

Existen preocupaciones reales sobre las posibles consecuencias negativas de la IA, desde falsificaciones “profundas” hasta usos nefastos del reconocimiento facial. Si bien ya se está trabajando para abordar estos peligros, inevitablemente nos esperan nuevos desafíos, a los que ninguna empresa o industria podrá hacer frente por sí sola.

¿Verdadero o falso? Los ‘deepfakes’ son el primer gran reto de la IA

Pichai asegura, además, aboga por un entendimiento entre diferentes órganos reguladores alrededor del globo para que una regulación sea posible de manera independiente al territorio en el que se aplique. "La UE y los Estados Unidos ya están comenzando a desarrollar algunas propuestas de regulación y la coordinación a nivel internacional será fundamental para que las normas sean efectivas en todo el mundo", ha expresado. "Las empresas como la nuestra no pueden simplemente diseñar nuevas tecnologías prometedoras y dejar que las fuerzas del mercado decidan cómo utilizarlas. Es también tarea nuestra asegurarnos de que las tecnologías se aprovechen para bien y estén disponibles para todos".

Regular no es sencillo

La regulación dentro de este ámbito es un aspecto que lleva tiempo escuchándose y que, de hecho, ha sido uno de los aspectos que más importancia tuvo dentro de la empresa en 2018. Fue entonces cuando la misma se vio involucrada en diversas acusaciones por parte de empleados y otros organismos en relación al Proyecto Maven, que Alphabet desarrollaba junto al Pentágono.

Este, que tenía como eje principal la inteligencia artificial y el reconocimiento facial, fue puesto en tela de juicio por los posibles usos armamentísticos –y potencialmente fatídicos– que podría dársele. Tanto fue así, que la tecnológica terminó desligándose del programa, rechazando otro (que habría supuesto cuantiosos ingresos) y publicando su propia guía ética sobre el uso de la inteligencia artificial.

Google continuará desarrollando IA con fines militares aun cuando exista riesgo de daño

No es la única empresa que se ha visto en esta tesitura, con Amazon o Facebook, por ejemplo, habiendo sufrido también el escrutinio público. Y no es para menos, pues como bien expresa Pichai "La IA tiene el potencial de mejorar miles de millones de vidas, y el mayor riesgo puede ser que no lo haga".

Hacer esto una realidad no es tan sencillo, sin embargo. En un marco que permanece apenas explorado en relación a sus posibilidades y poco contextualizado en términos de aplicaciones, poner coto a su desarrollo e implementación se antoja una materia compleja. El propio CEO hace el mejor resumen posible:

En este momento no tengo la menor duda de que la inteligencia artificial necesita ser regulada. Es algo demasiado importante para no intervenir. La única pregunta es cómo hacerlo.