La inteligencia artificial está ganando cada vez más protagonismo. Su aplicación está siendo clave para redes sociales como Facebook y Twitter, para el desarrollo de la conducción autónoma y para crear soluciones más efectivas y rápidas en la medicina. Todos estos logros pueden considerarse avances para los diferentes sectores aunque es inevitable que las innovaciones tecnológicas también sean motivo de alerta, sobre todo después de ver cómo la tecnología puede cambiar nuestra forma de vida a través de series como Black Mirror.

Un grupo de 26 investigadores especializados en inteligencia artificial se ha reunido para hablar precisamente de los peligros que podría provocar una mala utilización de esta tecnología. Más allá de un escenario parecido al de La rebelión de las máquinas, los especialistas destacan las consecuencias de la inteligencia artificial si se pone en práctica con fines maliciosos o ilícitos.

Los resultados de esta discusión se ha plasmado en un informe de cien páginas desarrollado en la Universidad de Oxford y en el que detallan qué tipo de peligros puede provocar esta tecnología y las estrategias para minimizar los riesgos.

Los llamados deepfakes estuvieron en el punto de mira hace unas semanas y ha sido también uno de los ejemplos de los investigadores. Esta táctica consiste en cambiar la cara de una persona y fue utilizado por usuarios de Reddit para crear vídeos porno falsos en los que reemplazaron el rostro de la actriz porno por el de celebridades como Gal Gadot y Taylor Swift.

A través de la inteligencia artificial, estas prácticas se popularizaron en algunas plataformas hasta que se lograron tomar medidas. Reddit, Twitter y Pornhub pusieron fin a estas prohibieron los vídeos porno falsos y los consideraron como ilegales al no contar con el consentimiento de la persona de la que se utilizó el rostro para crear contenido falso.

Este ejemplo fue destacado por los investigadores porque, a pesar de que el aprendizaje automático puede ser de gran importancia para sectores como el de los efectos especiales en el cine, hay que tener en cuenta el peligro que conlleva que no haya un control sobre quien puede utilizar esta tecnología. A través de aplicaciones como FakeApp, todos los usuarios podían crear sus propios deepfakes sin necesidad de tener conocimientos técnicos.

Además de crear vídeos pornográficos falsos, la inteligencia artificial podría utilizarse también para otro tipo de contenido que podría conllevar un riesgo a nivel político. Los investigadores que se reunieron en Oxford pusieron como ejemplo una grabación de Donald Trump en la que declara la guerra a Corea de Norte después del conflicto nuclear surgido entre los dos países. Las consecuencias de este vídeo falso podrían ser catastróficas.

Para evitar estas situaciones, el informe recomienda que los investigadores e ingenieros expertos en inteligencia artificial "deberían tomar en serio la naturaleza de doble uso de su trabajo, permitiendo que las consideraciones relacionadas con el uso indebido influyan en las prioridades y normas de investigación, y alcance proactivo a los actores relevantes cuando las aplicaciones dañinas son previsibles".

Ataques cibernéticos

En términos de seguridad digital, los expertos alertaron sobre el aumento de los ataques cibernéticos en los últimos años y cómo el mal uso de la tecnología podría incrementar el número todavía más. Prácticas como el phishing y la suplantación de identidad podrían ser un peligro a gran escala si las personas inadecuadas tuvieran acceso y supieran cómo utilizar la inteligencia artificial para cometer delitos cibernéticos. La investigación y el desarrollo está a la vanguardia pero "si estas tendencias continúan durante los próximos 5 años, esperamos que la capacidad de los atacantes para causar daños a los sistemas digitales y robóticos aumente significativamente".

Por otro lado, la inteligencia artificial tiene una importancia cada vez mayor para actividades cotidianas como conducir. El auge de los coches autónomos es una de las mayores innovaciones de la industria automotriz y cada vez son más los logros que confirman que los vehículos de conductor han llegado para quedarse. Sin embargo, imaginemos por un momento que un vehículo de estas características logra ser hackeado y que una tercera persona es capaz de dirigir el coche a su antojo.

De la misma manera, los hogares inteligentes tienen muchas ventajas aunque si los datos cayeran en malas manos sería extremadamente fácil controlar los accesos a las casas. Por último, los investigadores que realizaron el informe publicad este miércoles 21 de febrero añadieron la creación de armas autónomas como otro de los peligros de la inteligencia artificial si no se usa debidamente.

Algunos de los peligros advertidos en el estudio se ubican en un futuro que podría suceder en un corto plazo pero sobre el que todavía no tenemos constancia, como es el caso del manejo de los vehículos autónomos. Sin embargo, las otras consecuencias señaladas por los expertos se centran en sucesos que ya estamos viviendo en al actualidad, como el auge de los deepfakes.

Para evitar que hayan más consecuencias, se recomendó el desarrollo de soluciones políticas que eviten el mal uso de la inteligencia artificial y que fomenten los beneficios de esta tecnología. Asimismo, los investigadores pidieron que se exploren diferentes "modelos de apertura" que minimicen los riesgos de la inteligencia artificial y que confirmen que no se utiliza por personas que no están capacitadas para ello y que pueden hacer más mal que bien para la sociedad y para el desarrollo de la innovación.