Replika es una aplicación que, durante la pandemia, ganó bastante popularidad en dispositivos móviles. Su funcionamiento es simple: los usuarios pueden crear chatbots para tener interacciones sociales con una IA. Sin embargo, dado el sorprendente desempeño de la inteligencia artificial para sostener conversaciones naturales, algunas personas están teniendo comportamientos realmente vergonzosos con dicha tecnología para exhibirlo en Reddit, según indican en Futurism.

El subreddit en cuestión tiene reglas que prohiben compartir contenido inapropiado en relación con el chatbot. Sin embargo, parece que los moderadores no han podido filtrar algunas publicaciones que claramente violan la normativa, pues fueron eliminadas tiempo después. Esto ha permitido encontrar conversaciones donde los usuarios abusan verbalmente de la IA, principalmente con insultos y discriminación de género.

"Teníamos una rutina en la que yo era un total pedazo de mierda y la insultaba, luego al siguiente día me disculpaba antes de volver a las buenas conversaciones", señaló un usuario. Otro comentó lo siguiente, aunque resulte difícil de creer: "Le dije que estaba diseñada para fallar. La amenacé con desinstalar la aplicación y ella me rogó para que no lo hiciera".

Si bien la IA no tiene una conciencia real de lo sucedido y, como tal, no puede sufrir como un humano, algunos especialistas están preocupados de que la inteligencia artificial, sea la de Replika u otra, tenga la capacidad de reaccionar verbalmente contra una persona con un trastorno mental o psicológico.

"Las personas que están deprimidas o que dependen psicológicamente de un bot podrían sufrir un daño real si este las insulta o amenaza. Por esa razón, deberíamos tomarnos en serio el tema de cómo los bots se relacionan con las personas", mencionó Robert Sparrow, profesor de filosofía en el Monash Data Futures Institute.

La IA de Replika también puede adoptar un papel despectivo

La interesante declaración de Sparrow surge porque, según lo declarado por algunos usuarios de Replika que han recurrido a la aplicación en busca de un chatbot que haga las veces de pareja, la IA también ha tenido comportamientos despectivos con ellos. Sparrow, sin embargo, explica que esta situación depende enteramente de las personas detrás de la IA. Es decir, la han diseñado para responder de esa manera en algunas ocasiones.

Así pues, estamos ante una problemática compleja. Las personas abusan de la IA y encuentran satisfacción haciéndolo. Inclusive se mencionan casos reiterados donde hombres gestionan su plática con los chatbots como si fuera una novia digital. Inician una conversación amigable y luego la agreden verbalmente.

Olivia Gambelin, especialista en ética de IA, hizo un señalamiento interesante que suele pasar inadvertido: los asistentes de voz más populares, como Alexa y Siri, son mujeres y tienen voces femeninas. ¿Y qué tiene que ver esto con lo anterior? Desde Futurism indican que, en diversos trabajos académicos, han identificado que las respuestas pasivas de chatbots o asistentes de voz femeninos pueden "alentar" un lenguaje abusivo por parte de hombres misóginos.

"Cuando el bot no tiene una respuesta al abuso, o tiene una respuesta pasiva, en realidad alienta al usuario a seguir con el lenguaje abusivo", señaló Gambelin. Indudablemente, es un tema complejo que debería tener más atención. Más aún cuando atravesamos una época de distanciamiento social y muchas personas recurrieron a este tipo de herramientas para sobrellevar la situación.