Facebook sigue intentando recuperar la confianza de la gente después del escándalo de Cambridge Analytica que supuso la violación de datos de 87 millones de usuarios de la red social que fueron usados para favorecer la campaña digital de Donald Trump. Su más reciente intento ha sido explicar cómo utiliza la inteligencia artificial (IA) para eliminar el contenido indebido de su plataforma.
Cambridge Analytica anuncia su cierre por al escándalo de uso de datos no autorizados de Facebook
Entre lo que la red social considera contenido indebido se encuentran los vídeos terroristas, discursos de odio, porno o violencia, cuentas falsas, spam y propaganda terrorista. También busca prevenir el suicidio buscando publicaciones de personas en riesgo.
Guy Rosen, vicepresidente de gestión de productos de Facebook, indicó a través de un post en el Newsroom de la red social que existen dos formas de detectar este tipo de publicaciones. Una forma es retirándolo una vez que alguien lo ha marcado y la otra es buscándolo de forma proactiva usando tecnología como la IA.
De acuerdo con Facebook, avances en áreas de la IA como el aprendizaje automático y la visión artificial le permite ahora eliminar el contenido indebido más rápido al no tener que esperar a que alguien más lo reporte, detectar mayor cantidad de este tipo de publicaciones por la misma razón y aumentar la capacidad de su equipo de revisión para enfocarse en casos en los que la experiencia humana es necesaria para entender el contexto o matiz de una situación particular.
Facebook ahora usa inteligencia artificial para analizar y traducir tus posts
Facebook ha empleado la inteligencia artificial desde hace tiempo para diversas cuestiones como traducir textos automáticamente utilizando redes neuronales o para prevenir el suicidio mediante un algoritmo que encuentra señales de alerta en las publicaciones de los usuarios en posible riesgo.
El desarrollo y constante mejoramiento de este software ha llevado tiempo, señala la plataforma. La cuestión es que para entrenar el software han tenido que analizar ejemplos específicos de contenido indebido y así identificar patrones de comportamiento. De esta manera, el software puede posteriormente buscar de forma proactiva otras publicaciones similares.
"La inteligencia artificial, por ejemplo, es muy prometedora, pero todavía estamos a años de que sea efectiva para todo tipo de contenido indebido porque el contexto es muy importante. Es por eso que tenemos personas que siguen revisando los informes", explicó Rosen, y agregó:
En términos más generales, la tecnología necesita grandes cantidades de datos de capacitación para reconocer patrones de comportamiento significativos, que a menudo nos faltan en los idiomas menos utilizados o en los casos que no se informan con frecuencia.
Para abordar el desafío de los idiomas menos usados, Facebook AI Research (FAIR, por sus siglas en inglés) está trabajando en algo que ha denominado las incrustaciones multilingües.
Facebook usa las fotos de Instagram para entrenar a su IA
Por otro lado, hoy Mike Schroepfer, director de tecnología de Facebook, reveló durante una de las conferencias anuales para desarrolladores en el F8 que la empresa ha estado usando las fotos de los usuarios de Instagram para ayudar a entrenar sus algoritmos de IA a comprender mejor los objetos en imágenes.
"Confiamos casi por completo en conjuntos de datos curados a mano y etiquetados por humanos. Si una persona no ha dedicado tiempo a etiquetar algo específico en una imagen, incluso los sistemas de visión por computadora más avanzados no podrán identificarlo", dijo en el escenario de F8.
Así que al usar imágenes de Instagram que ya están etiquetadas por medio de hashtags, Facebook ha podido recopilar datos relevantes y usarlos para entrenar sus modelos de visión artificial y reconocimiento de objetos. "Hemos producido resultados de vanguardia que son de 1 a 2% mejor que cualquier otro sistema en el benchmark de ImageNet", añadió Schroepfer.
La visión, el lenguaje y el razonamiento, dijo el directivo, son los tres factores más importantes en el entrenamiento de un sistema de IA que será eficiente y preciso para eliminar todo el contenido abusivo que aparece en las plataformas de Facebook.
No obstante, dado que no es la primera vez que la red social asegura que esta tecnología será la solución de todo sin serlo necesariamente, su efectividad a largo plazo en eliminar el contenido indebido aún está por verse. Además de invertir en el desarrollo de estas herramientas de IA, Facebook ha asegurado que para finales de este año contará con 20.000 moderadores de contenido dedicados a encontrar y revisar este tipo de publicaciones.