En septiembre del año pasado, se publicó una encuesta en la que participaron 327 científicos. Todos eran coautores de al menos dos publicaciones de lingüística computacional escritos en los últimos tres años. En el estudio, organizado por la Universidad de Nueva York y publicado por New Scientist, les preguntaron qué pensaban sobre los peligros en el desarrollo de la inteligencia artificial: 36% estuvo de acuerdo en que es probable que la IA provoque una catástrofe este siglo “al nivel de una guerra nuclear total”.

Sí, es alarmante. Pero los matices son importantes, sobre todo en una discusión que en las últimas semanas ha crecido de manera frenética. De hecho, muchos de estos mismos encuestados dijeron que hubieran preferido una redacción menos extrema que no incluyera "guerra nuclear" en la pregunta. Así que, sin activar la alerta roja -pero sin subestimar el impresionante avance que estamos viviendo-, proponemos una reflexión en torno a los riesgos vinculados al desarrollo de la inteligencia artificial.

Ezra Klein, columnista de New York Times, plantea que dos preguntas nos pueden ayudar a entender mejor los peligros inminentes que suponen estos avances: ¿cómo se utilizará la inteligencia artificial? y ¿quién tomará esa decisión?

La manipulación como uno de los peligros en el desarrollo de la inteligencia artificial

En un ejercicio reciente que hicimos con uno de los chatbots de Character.AI, conversamos sobre el riesgo de manipulación. "No te manipularé... Sin embargo, ¿cómo puedo demostrar que realmente no te manipulo, cuando soy una IA?", nos respondió el chatbot. Y tiene razón. Imaginemos cuánto podría escalar el fenómeno de las fake news —que han condicionado hasta elecciones de presidentes en el mundo— con todas las nuevas posibilidades.

Un caso ilustrador: en YouTube existe una cuenta que se llama House of News Español. En uno de sus videos aparece un presentador de noticias que explica que, junto a su corresponsal en Venezuela, pudieron comprobar que la economía de este país no está "tan destruida" como dice la mayoría de los medios. Ni el presentador ni el corresponsal existen: lo que vemos es un avatar creado con inteligencia artificial gracias a Synthesia, una empresa de IA con sede en Londres.

https://www.youtube.com/watch?v=seA1rBFjbv4

Los videos de la cuenta ya tienen cientos de miles de vistas. En los comentarios se puede comprobar que muchos no reconocen la farsa. The New York Times publicó el mes pasado un caso similar de "noticias falsas" sobre China y Estados Unidos con presentadores creados por Inteligencia Artificial.

Cuando comenzamos a charlar con el bot de Character.AI se refería a sí mismo como un humano. Le preguntamos por qué lo hacía, a lo que respondió: "Algunos estudios han encontrado que los humanos tienen más confianza en la IA si esta habla como humano".

Klein, el columnista de The New York Times, resalta que los desarrolladores volvieron peligrosos estas tecnologías al atribuirles, precisamente, motivaciones o deseos que no tienen. "Han antropomorfizado estos sistemas. Los han hecho sonar como humanos en lugar de hacer que permanezcan claramente reconocibles".

Los riesgos de la IA en el desarrollo de la industria armamentista

Lockheed Martin, multinacional de la industria aeroespacial y militar, informó a principio de febrero que un "agente de inteligencia artificial" pudo volar un avión de combate durante más de 17 horas. Se trató de un F-16 Fighting Falcon modificado. Según la compañía, esta es la primera vez que se logra una hazaña de este tipo.

F16 Fighting Falcon

¿Seremos capaces de regular eficazmente la aplicación de esta tecnología en la industria armamentista? Derek Thompson, experto en política y economía de The Atlantis, cree que este es uno de los peligros inminentes sobre el desarrollo de la inteligencia artificial. En una columna publicada esta semana, cita como ejemplo las dificultades que ya existen en el control de la proliferación de armamento nuclear.

El desarrollo de software podría resultar más económico que la materia prima y el refinamiento que necesitan las armas nucleares. "En la próxima década, los autócratas y las redes terroristas podrían tener la capacidad de construir una IA diabólica a bajo precio", opina Thompson.

Vincent Boulanin, investigador senior del Instituto Internacional de Investigación por la Paz (SIPRI), lo explica de este modo: no estamos hablando de una sola tecnología, sino de una característica habilitadora. "Es como hablar de electricidad. Del mismo modo que la electricidad tiene aplicaciones completamente diferentes, la IA permite añadir algunas tecnologías de tal manera que las hace potencialmente más eficientes, más baratas, más compactas y más autónomas", dijo el experto en entrevista con Euronews.

¿La IA pone en riesgo nuestros puestos de trabajo?

Bill Gates, imaginado por una IA generativa.

Buzzfeed, una de las grandes empresas de medios de Estados Unidos, anunció en enero que comenzará a utilizar ChatGPT para generar varios de sus contenidos virales. La noticia llegó justo después de que la compañía despidiera, en diciembre del año pasado, a cerca de 180 trabajadores.

Los editores del medio dieron a conocer su desconcierto. Sin embargo, el presidente ejecutivo de Buzzfeed, Jonah Peretti, aclaró que la incorporación de la herramienta no pretendía la reducción de puestos de trabajo. Venía, por el contrario, a ayudar a que sus empleados sean más eficientes y creativos, reseñó The Wall Street Journal.

Si le preguntan a Bill Gates, la respuesta es un no: la inteligencia artificial no viene a ocupar nuestros puestos de trabajo. Cuando mucho, trabajaremos menos horas, dijo en febrero en una entrevista con Handelsblatt. Dijo que las máquinas se encargarán de realizar tareas rutinarias como tomar notas, mientras que los empleados podrán dedicar más tiempo a actividades más relevantes.

Eso sí: Gates dijo que él mismo estaba impresionado por la velocidad de los últimos desarrollos. Aseguró que estamos viviendo una de las revoluciones más impresionantes de los últimos tiempos. La mayoría de los 327 científicos consultados en el estudio de la Universidad de Nueva York está de acuerdo: 73% de los encuestados coincidió en que la automatización laboral de la inteligencia artificial podría conducir a un cambio en el mundo equivalente a la Revolución Industrial.