Helena Matute es catedrática de Psicología Experimental en la Universidad de Deusto (Bilbao).Investiga sobre aprendizaje, sesgos cognitivos, supersticiones, ilusiones causales... Pero también sobre Psicología de las Nuevas Tecnologías, es decir, cómo nos relacionamos los humanos con, por ejemplo, las Inteligencias Artificiales (IA). En Hipertextual nos reunimos con ella para saber más sobre el aprendizaje y el mundo de las IAs.¿Las personas y las inteligencias artificiales aprenden de formas diferentes?
No sabemos exactamente cómo aprenden los humanos. Tenemos varias teorías sobre el aprendizaje, llevamos muchos años investigando y creo que sabemos bastante bien, pero todavía nos falta mucho.

De hecho, una cosa que hacemos en psicología es simular por ordenador las teorías de aprendizaje humano y animal y supuestamente, si es una buena teoría de aprendizaje, el ordenador donde estamos simulando tendrá que ser capaz de aprender como cualquier ser humano o animal. Entonces, para aprendizajes sencillos simulamos bastante bien a día de hoy, para aprendizajes más complicados, todavía no.

Todo lo que la inteligencia artificial puede hacer por tu salud

Esa parte de aprendizaje sencillo, más asociativo, más de detección de patrones... Todo esto los hacen de forma muy parecida las máquinas a los seres humanos y animales. Pero tampoco tendría por qué ser igual, es decir, en el aprendizaje natural no sabemos perfectamente bien cómo aprendemos, estamos avanzando mucho, sabemos bastante. En el aprendizaje artificial sabemos que hay cosas que son muy parecidas, pero también, a lo mejor a un ingeniero se le ocurre hacer otra cosa totalmente distinta que también sirve para aprender.

Unsplash | Franck V.

De todas las noticias que te pone Facebook va viendo cuáles te interesan. La cuestión no es solo cómo aprenden sino también qué aprenden y esto dependerá de su meta, de lo que tenga que optimizar para que las personas pasen más tiempo en la web. Entonces, ¿cómo aprende Facebook a conseguir eso? Juega con el orden para que te salgan los comentarios de los contactos en función de cuál es tu comportamiento, si das me gusta o no, así va aprendiendo cómo eres tú. Luego te mete unas cuantas imágenes de vez en cuando para ver si la pinchas y ya va viendo si eres más de paisajes que de discotecas, así te va perfilando, que quiere decir que al final nos conocen mejor que nosotros mismos (aunque de momento sigue habiendo errores, pero cada vez menos).

Has trabajado desarrollando Inteligencias Artificiales (IAs), ¿cómo fue el proyecto?
Era un proyecto donde queríamos desarrollar aprendizaje artificial con la idea de que, como estábamos trabajando el aprendizaje natural, era cuestión de programar una buena teoría del aprendizaje natural en un ordenador y de esa forma el ordenador sería capaz de aprender como aprenden las personas y los animales.

MIT invertirá mil millones en crear una universidad sobre inteligencia artificial

¿Y qué pasó? En esa época (principios delos 90) normalmente tenías que probar que tu sistema simulaba bien no solo el aprendizaje por condicionamiento (como los perros de Pavlov o las palomas de Skinner), que eso lo simulábamos muy bien, sino que también estaba de moda simular el aprendizaje en los juegos. Había programas de inteligencias artificiales que aprendían a jugar al ajedrez, por ejemplo. Y nosotros pusimos al nuestro a aprender a jugar al mus.

Todos los días, cuando nos íbamos a dormir, dejábamos a la máquina jugando al mus consigo misma y volvíamos por la mañana a ver cuánto había aprendido, para ver si nos ganaba o la ganábamos. Nos lo pasamos muy bien. El problema eran los órdagos.

Básicamente ahora es lo mismo. La máquina que ha ganado al campeón del mundo de Go, que es un juego muy creativo, muy intuitivo... Pues la idea es la misma que hacíamos con el mus, un juego intuitivo. Ahora la pusieron a jugar consigo misma y en cuatro horas dominaba a cualquier humano; la nuestra se pasó días y días aprendiendo todas las noches y al final es cuando, aparte de que se estaba estancando un área, nos dimos cuenta de que si no mejorábamos la teoría que teníamos del aprendizaje natural y seguíamos aplicando eso, no íbamos a conseguirlo. Por ejemplo el tema de los órdagos estaba fuera de lo que se podía hacer entones; hoy en día creo que sería posible.

¿Qué pasó con los órdagos?

La forma en la que programamos la máquina era simplemente que conocía las reglas y tenía que empezar jugando al azar y con los reforzamientos que iba consiguiendo de los puntos ganados tenía que ir aprendiendo. ¿Qué pasaba con los órdagos? Pues que te lanzaba uno totalmente al azar y a veces colaba, iba aprendiendo, pero entonces se emocionaba y a veces empezaba a soltar demasiados órdagos. Entonces la persona con la que estaba jugando ya lo veía venir y ya pensaba 'esta me está metiendo todo órdagos, ya nada'. Era muy primitivo aún.

Pero sí que conseguíamos simular unos experimentos que había con palomas de detección de patrones, que son cosas que ahora se están haciendo bastante bien, pero que ya entonces se hacían muy bien.

¿Qué son los sesgos cognitivos? ¿Algún ejemplo?
Los sesgos cognitivos son errores que cometemos todos nosotros, son muy sistemáticos, y se dan en todas las personas. Son errores en nuestro razonamiento, en nuestra cognición, atención, percepción.

Decimos que estamos sesgados porque no son errores aleatorios. Es como una brújula que está sesgada no es que te da error sino que en vez de llevarte al norte, te lleva siempre un poquito al noroeste. En ese sentido estamos todas las personas sesgadas en la misma dirección, cometemos el mismo tipo de error en determinadas circunstancias.

Por ejemplo, el sesgo de confirmación. Tendemos continuamente, cuando buscamos información, a querer confirmar lo que ya creemos, entonces buscamos información que confirme lo que creemos en vez de buscar información que lo refute, que nos sería más útil y ayudaría más a sacar una conclusión más correcta. Pero si vamos siempre buscando lo que ya creemos, no salimos nunca del error que tenemos.

¿Por eso triunfan las 'fake news'?

En parte triunfan por eso, por supuesto, pero en parte también porque se ha comprobado que las noticias falsas suelen sonar más novedosas que las verdaderas, entonces eso es también un factor a su favor.

A veces nos indignan más porque en ocasiones son más locas que las verdaderas y eso también hace que triunfen. Hay varios factores ahí.

¿Cómo afectan las redes sociales al voto?
No se puede dar una respuesta categórica, se está viendo que hay muchos factores. Por una parte, hay unos algoritmos que manejan las redes sociales cuya meta es conseguir que pasemos más tiempo en esa red, que participemos más y que hagamos más clics, ya sea un me gusta, que un retuit o cualquier otra interacción. Esa es la meta del algoritmo.

Las redes sociales te muestran una información muy parcial, no muestran todo lo que nuestros contactos han dicho sino lo que el algoritmo considera que nos interesa más. ¿Qué quiere decir que nos interesa más? Que pinchemos más veces me gusta o hagamos más retuits. Según el algoritmo lo que nos interesa es aquello con lo que nos indignamos más, lo que comentamos más o participamos más. Esto tiene que afectar al voto, porque nosotros enseñamos al algoritmo algo que nos gusta, el algoritmo nos muestra entonces lo que sabe que nos gusta (o sea, nos indigna, nos gusta, nos emociona, nos enfada), y cada vez más exagerándolo más para seguir provocando más reacción.

Pexels

Así que en el tema político sí que se está viendo que polariza mucho a la sociedad porque a la gente de izquierdas le indigna una cosa y a la de derechas, otra. Entonces el algoritmo te lo exagera cada vez más y hace que nos volvamos más extremistas.

¿Es lo que está pasando con Trump, el 'Brexit' o Vox?
Yo diría que tiene mucho que ver. No es una investigación que se pueda hacer de forma directa, pero todo lo que nosotros estamos viendo tiene que ver. Se hizo por ejemplo un experimento en Estados Unidos sobre noticias falsas. Eran noticias que habían aparecido anteriormente en la prensa, y en el experimento las modificaban, de forma que aparecían distintos políticos en situación comprometida. Se trataba de ver si la gente se daba cuenta de que la noticia había sido trucada. Los voluntarios eran de derechas y de izquierdas y se trataba de detectar si se daban cuenta de que la noticia era falsa. Efectivamente, se comprobó que los voluntarios detectaban la falsedad de la noticia solo cuando el político que quedaba mal en la noticia era del partido que le gustaba al voluntario. Cuando era del partido contrario parecía lo más natural del mundo que el político estuviera haciendo las cosas mal, y por tanto la noticia modificada colaba como auténtica. Es tremendo.

Estamos hablando, además, no solo de una noticia falsa sino de un recuerdo de una noticia, lo cuál debería ser más fácil reconocer como falso, pero tampoco. Nos pueden hacer creer fácilmente que es verdadero dependiendo de que coincida con nuestro punto de vista político. Nos pueden manipular muy fácilmente.

En otra investigación que hemos hecho nosotros [en la Universidad de Deusto, en Bilbao], ocurren cosas buenas por azar y contamos a los voluntarios que el partido que está en el Gobierno es de derechas o de izquierdas (a dos grupos diferentes). Las cosas que ocurren son puro azar, y al voluntario le hemos pedido anteriormente que se identifique en una escala del 0 al 10 según si es de derechas o izquierdas [el 0 es extrema izquierda y el 10 extrema derecha].

¿Entonces qué vemos? Que cuanto más de derechas sean, más van a atribuir los resultados positivos azarosos al partido de derechas que gobierna, mientras que si están en el grupo en el que gobierna la izquierda, sí se dan cuenta de que está ocurriendo por azar.

Por supuesto, con la gente de izquierdas pasa exactamente lo mismo pero al revés. Se dan cuenta de que los resultados buenos que están ocurriendo se deben al azar, solo cuando el partido que gobierna es de derechas. Cuando gobierna el partido de izquierdas se quedan tan contentos atribuyendo el éxito a su partido.

Las IAs y las nuevas tecnologías, ¿son buenas o malas?
Creo que la IA como tal es una tecnología puede ser fantástica. Es una tecnología que puede traer y está trayendo cosas muy buenas y que puede suponer un cambio enorme y para bien en esta sociedad. Pero, a día de hoy, y en todo este contexto social se está haciendo un uso muy malo y peligroso de toda esta tecnología. Así que creo que lo que hay que hacer es cambiar ese uso que se está haciendo.

Europa publica su primera guía ética para el uso responsable de inteligencia artificial

**¿Entonces hay que regularlas?
Yo opino que sí. Además es urgente, sobre todo en determinadas áreas como la infancia es muy urgente.

¿Qué hay que tener en cuenta para regular las IA?**

Muchas cosas. En Europa ya se están haciendo cosas. Es fundamental la transparencia. La IA para uso humano o del hogar tiene que ser transparente. Primero porque cuando sale de fábrica no sabemos qué intereses trae o qué metas trae. Podemos estar hablando de intereses comerciales, pero también de intereses políticos. No tenemos ni idea del uso que se va a hacer de todo lo que aprenda de nosotros.

Estamos hablando de IAs que aprenden (como son todas las que hay en Internet, como son los algoritmos de Google, Facebook, Amazon, Twitter...) Cuando aprenden no solo es que no sabemos cómo salen de fábrica sino que, a día de hoy, ¿qué están aprendiendo? No tenemos ni idea. Incluso los programas que aprenden a jugar al Go, que en cuatro horas juegan mejor que cualquier humano- ¡No sabemos por qué!-. Son opacos, cajas negras.

Así que hay dos factores. Uno, cuando salgan de fábrica creo que deberíamos tener muy claro qué es lo que tienen programado hacer, qué datos van a recopilar, etc. Creo que en Europa vamos hacia eso, que sea absolutamente transparente la meta. Esa es una parte, creo que se puede conseguir.

La otra parte es que lo que aprendan sean capaces de explicarnos por qué han tomado una decisión de forma que los humanos la podamos entender. Por ejemplo, una IA decide que a ti no se te da la hipoteca, pues debería tener que explicarte muy bien por qué. Hoy en día los directores de las sucursales del banco te dicen que no les da permiso el ordenador. Y eso es porque la IA no está dando permiso para conceder la hipoteca y no te han explicado por qué. Todo eso te lo tienen que explicar, te tienen que informar de que no te la dan por un problema concreto.

AIBO, la emblemática serie de mascotas robóticas diseñadas y fabricadas por Sony. El primer prototipo se anunció a mediados de 1998.

Además de que sean transparentes y que sepamos cómo están funcionando, tenemos que regular también que dejen de explotar los sesgos de los usuarios. Por ejemplo, el algoritmo de Twitter tiene dos opciones, o que sea cronológico el orden en que te muestra los tuits de la gente que sigues (los más antiguos primero), o que te muestre lo que el algoritmo considera que a ti te interesa. Por defecto viene esta última opción seleccionada, y es muy peligrosa. Lo que debería suceder es que por defecto, sin que yo tenga que perder el tiempo, configurándolo, el orden sea cronológico. Así seré yo quien selecciona lo que veo. Solo si el usuario quiere, y lo configura explícitamente así, debería el algoritmo hacer la selección de tuits para el usuario. Son cosas que se pueden regular, se puede obligar a que vengan de fábrica estos algoritmos con la opción por defecto que sea más beneficiosa para la humanidad y no para la empresa dueña del algoritmo.

¿Qué es la economía de la atención?
Se está diciendo cada vez más que el modelo de negocio de estas gigantes de Internet está yendo hacia una economía en la que lo único que importa es conseguir la atención de la gente y que hagan clic. También de ahí viene el que dé igual que una noticia sea falsa o verdadera con tal de que capte la atención y me traiga clics y al algoritmo, a la IA, le da exactamente igual, su meta es conseguir que pinchemos y lo consigue. Y si puede exagerar el tema, mejor.

Un ejemplo es el algoritmo de YouTube. Si tú te metes a buscar algo relacionado con la política y empiezas por el centro tirando un poquito a la izquierda o a la derecha, al cabo de dos horas el algoritmo te está poniendo vídeos muy extremos. Eso es la economía de la atención. En YouTube esto se ve muy bien, su algoritmo lo que hace es que cuando estás terminando de ver un vídeo en seguida te pone el siguiente y está siendo cada vez es más exagerado. Si has visto un vídeo de un perro jugando a morder a un gato, al cabo de un rato verás a un león comiéndose a otro animal. Van exagerando y te ponen el siguiente vídeo antes de que termine el anterior, y que lo único que importa es que mantengas tu atención y tus clicks en su web.

En los medios de comunicación también está pasando con el clickbait(titulares engañosos que no se corresponden con la noticia, pero sirven para captar la atención y que la gente pinche). Al principio cuando los veía, me llamaba la atención el titular y entraba a leer el artículo, pero no tenía nada que ver. Primero pensaba que eran errores, pero luego te das cuenta de que solo buscan que pinchemos en el enlace. Todo esto es economía de la atención. Es tremendo porque ¿qué es lo que vale dinero hoy en día? Los clics de los usuarios, su atención. Las empresas más millonarias del mundo se pelean por ella, son empresas tecnológicas que viven de la atención del usuario, del clic.

¿Estamos perdidos?

Yo espero que no, creo que todo está empezando. Yo creo que estamos a tiempo de reaccionar y también creo que los políticos se tienen que poner las pilas ya. Es sin duda alguna el problema más urgente que tienen sobre la mesa, porque si no solucionan esto no podrán solucionar ningún otro. Afecta a todo. Esto tienen que reconducirlo como sea, y en este momento el problema no es de tecnología, es de voluntad política.

Parece que mi mensaje es negativo, pero no. Creo que estamos a tiempo de reconducirlo, depende de la voluntad de los políticos. Es también lo que pretendía al participar en Ciencia en el Parlamento, decirles a los políticos que este tema hay que moverlo urgentemente.

Recibe cada mañana nuestra newsletter. Una guía para entender lo que importa en relación con la tecnología, la ciencia y la cultura digital.

Procesando...
¡Listo! Ya estás suscrito

También en Hipertextual: