Pixabay

Facebook está desarrollando una herramienta para combatir trolls y estafadores dentro de la red social. La división de investigación de la compañía publicó un documento en el que detalla un sistema de simulación con bots que llevan a cabo comportamientos similares a los que realizamos en la plataforma, como comentar en publicaciones, compartirlas e incluso adoptar un comportamiento abusivo.

El sistema es conocido como WES: Simulación de interacción de usuario basada en agente e infraestructura real, y de acuerdo a la descripción del documento, simula interacciones de redes sociales en una infraestructura que consta de cientos de millones de línea de código. Facebook menciona que WES no solo es útil para corregir cambios en el software y probar actualizaciones, sino que también se enfoca en las interacciones entre usuarios mediadas por el sistema.

En términos prácticos, la simulación WES sería como un videojuego en el que se tiene un grupo de jugadores que trabajan para cumplir ciertos objetivos en una plataforma de software. Por medio de sistemas de inteligencia artificial, la simulación puede entrenar a los jugadores — en este caso, bots — a comportarse de un modo que contravenga las condiciones de uso de Facebook.

Los bots interactúan en una versión reducida y segura de Facebook

Estos bots interactúan entre si en una versión reducida y segura de Facebook. Mientras que algunos se comportan acorde a las reglas de la red social, otros se salen del molde. El documento habla de un modelo para entrenar a un bot que realice estafas a una víctima, aunque no ofrece detalles específicos por cuestiones de seguridad.

"La recompensa de aprendizaje de refuerzo para el bot estafador se basa en su capacidad de encontrar objetivos adecuados" mencionan los investigadores. Estos candidatos serían otros bots basados en reglas que exhiben comportamientos probables. El sistema no requiere involucrar una gran cantidad de actores, aunque se beneficia de su existencia ya que puede simularse a gran escala.

YouTube video

Otros comportamientos abusivos son el robo de información de otros bots o simplemente buscar contenido prohibido que vaya en contra en las reglas de la plataforma.

A diferencia de un modelo tradicional en donde se siguen una serie de pasos, WES entrena a los bots para que ejecuten ciertas acciones bajo la plataforma. Actualmente la empresa cuenta con la tecnología Sapienz para realizar pruebas automatizadas, aunque en este caso, WES difiere por su acercamiento de aprendizaje automático (o machine learning).

De acuerdo con Facebook, la simulación se ejecuta de manera aislada y segura, y servirá para mejorar la capacidad de detectar actores maliciosos así como también de investigar posibles problemas de privacidad en la plataforma real.

Recibe cada mañana nuestra newsletter. Una guía para entender lo que importa en relación con la tecnología, la ciencia y la cultura digital.

Procesando...
¡Listo! Ya estás suscrito

También en Hipertextual: