Dos analistas responsables de evaluar los productos de IA de Google intentaron frenar el lanzamiento de Bard. Los técnicos dejaron por escrito su preocupación, en un informe sobre el riesgo de que el chatbot desarrollado por la compañía generara contenido falso o peligroso.

Los dos empleados trabajaban en el equipo de Jen Gennai, directora del grupo de Innovación Responsable de Google. Luego de revisar la herramienta, insistieron en que las medidas de seguridad eran insuficientes y que el chatbot no estaba listo. Bard, finalmente, fue presentado en marzo pasado, aunque solo a un número muy limitado de usuarios.

The New York Times informó que Gennai alteró el documento final para eliminar la recomendación y minimizar la alarma sobre los riesgos. El medio estadounidense cita a dos personas vinculadas con el proceso.

Google dice que Bard sigue en periodo de prueba

Bard de Google capture mobile

Google respondió que, justo por este tipo de alarmas, había lanzado Bard como un experimento limitado. Gennai, la directora del equipo de Innovación Responsable, confirmó a The New York Times que había "corregido suposiciones inexactas" en el informe de los analistas. Dijo que los evaluadores no debían opinar sobre si se debía proceder o no con el lanzamiento.

La llegada de ChatGPT, el chatbot de OpenAI, en noviembre del año pasado, fue el punto de partida de una carrera frenética en el desarrollo de modelos impulsados por IA. Los grandes de la industria, como Microsoft y Google, se apuraron en presentar nuevas herramientas y funcionalidades, a pesar de que distintas organizaciones y expertos han advertido sobre los riesgos inherentes a este tipo de tecnología.

Así como los trabajadores de Google pidieron frenar la salida de Bard, un grupo de colegas de Microsoft hicieron lo propio hace diez meses. Según reportó The New York Times, especialistas en ética y otros analistas de Microsoft presentaron varios informes sobre cómo la IA detrás de un chatbot planificado podría generar caos en grupos de Facebook con desinformación. Advirtieron de cómo una herramienta de este tipo, sin los recaudos suficientes, atentaría contra el pensamiento crítico de los usuarios.

Velocidad vs. responsabilidad

ChatGPT extensión chrome ordenador

Este tipo de preocupaciones, en su momento, detuvieron el lanzamiento de sistemas similares. En 2016, por ejemplo, Microsoft retiró rápidamente un chatbot llamado Tay, después de que los usuarios lo hicieran generar respuestas racistas y homofóbicas. Estuvo disponible menos de un día.

Antes de Bard, Google ya había anunciado en 2020 a Meena, un chatbot similar. Sin embargo, la compañía consideró que el producto era demasiado arriesgado y finalmente decidió no lanzarlo al mercado, reveló The Wall Street Journal.

Las cosas cambiaron. Ambas firmas tecnológicas ya publicaron sus nuevos chatbots, sin resolver varias de las preocupaciones de entonces. Newsguard, una plataforma que mide y califica la confiabilidad de fuentes informativas, viene alertando desde enero cómo ChatGPT, GPT-4 y Bard producen fácilmente contenido falso para respaldar conocidas teorías conspirativas. The Guardian también publicó esta semana como el modelo de OpenAI se inventa estudios completos y los presenta como verídicos.