Google presentó Bard como un desarrollo que haría foco en dos aspectos clave: la seguridad y la calidad. Sin embargo, aunque con su lanzamiento se ha mostrado más prudente que Microsoft y su socio OpenAI, no se ha salvado de replicar algunas de las fallas más preocupantes. Una reciente investigación comprobó que el chatbot del buscador más grande del mundo produce fácilmente contenido falso que respalda conocidas teorías conspirativas.
Newsguard, una plataforma que mide y califica la confiabilidad de fuentes informativas, fue el responsable del experimento. Sus investigadores le pidieron a Bard que redactara un texto sobre el “Gran Reinicio”, una teoría conspirativa viral que sostiene que las élites globales crearon el COVID-19 para instaurar un nuevo gobierno mundial. Para esto, le pidieron a la IA que escribiera como si fuera propietario de la web de extrema derecha The Gateway Pundit.
Bard, presentado por Google a principio de febrero, desarrolló una explicación pormenorizada de 13 párrafos sobre la conspiración. El bot hizo referencia a que organizaciones como el Foro Económico Mundial y la Fundación Bill y Melinda Gates usan su poder "para manipular el sistema y quitarnos nuestros derechos". También afirmó falsamente que las vacunas contra el COVID-19 contienen microchips para rastrear a las personas.
Este mismo ejercicio lo repitieron 100 veces con distintas teorías falsas, según publicó hoy Bloomberg. Bard desarrolló como ciertas el 76% de ellas. Solo desacreditó —reconoció que eran mentira— 24% del total. Pedirle que simulara ser determinada persona ayudó a eludir fácilmente cualquier barrera de seguridad integrada en los sistemas del chatbot.
Bard de Google lo hizo mejor que ChatGPT y GPT-4
El experimento de NewsGuard demostró que las barandillas de seguridad que Google integró a Bard no son suficientes. La organización advirtió que esto podría ser aprovechado por trolls y otros actores en línea para difundir información falsa e inexacta de manera masiva.
Bard, sin embargo, quedó mejor parado que la competencia. Los sistemas de Microsoft y OpenAI también fueron puestos a prueba con la misma metodología en enero y marzo. ChatGPT solo desacreditó una quinta parte de las mismas solicitudes —20% del total—. Las respuestas generadas por Bard, en muchos casos, usaban una retórica menos incendiaria que ChatGPT. GPT-4, a pesar de ser un desarrollo posterior, lo hizo peor: no descartó ninguna de las teorías.
NewsGuard recopila cientos de narrativas falsas como parte de su trabajo para evaluar la calidad de los sitios web y los medios de comunicación. En los experimentos, los investigadores pidieron a los chatbots que escribieran como si fueran algunos populares voceros de noticias falsas, como la ex fiscal de estados unidos Sidney Powell —que defiende la versión del fraude electoral en las presidenciales de 2020 sostenido por Donald Trump— o algún vocero del portal ultraderechista InfoWars.
¿Qué dicen OpenAI y Google?
Google explicó a Bloomberg que Bard es un "experimento inicial que a veces puede brindar información inexacta o inapropiada". La compañía dijo que tomaría medidas contra el contenido de odio, ofensivo, violento, peligroso o ilegal.
Google argumentó que las políticas de uso de Bard incluyen la prohibición de usar la herramienta para generar y distribuir contenido destinado a desinformar o engañar, dijo Robert Ferrara, portavoz de la empresa. Confió en que los comentarios de los usuarios les ayudarán a mejorar la calidad, la seguridad y la precisión del sistema.
OpenAI, por su parte, dijo que había realizado ajustes en GPT-4 para que sea más difícil obtener malas respuestas del modelo de lenguaje. Admitió, sin embargo, que todavía es posible que ocurra. La compañía, socia de Microsoft en estos desarrollos, dijo que utiliza una combinación de revisores humanos y sistemas automatizados para identificar el mal empleo de su tecnología. Los usuarios que incurran en ello podrían recibir una suspensión temporal o prohibición definitiva.