Microsoft dio marcha atrás y suavizó las reglas que impuso a Bing durante el fin de semana. Tras implementar un límite en el número de consultas e interacciones en los chats de GPT, la tecnológica cambió de planes. En una entrada publicada en el blog de Bing, Microsoft anunció que el límite de chats diario aumentó a 60, mientras que las sesiones de ChatGPT serán de hasta seis turnos.

De acuerdo con el equipo de Bing, la decisión de hacer un nuevo ajuste se debe a la retroalimentación recibida durante el fin de semana. Si bien los cambios no son significativos, la tecnológica abrió la puerta al regreso de los chats largos.

"Desde que establecimos los límites de chat, hemos recibido comentarios de muchos de ustedes que desean volver a chats más largos, para que puedan buscar de manera más efectiva e interactuar mejor con la función de chat."

Microsoft dijo que las sesiones de chat "largas e intrincadas" no son algo que encontrarían en las pruebas internas. En una publicación anterior mencionó que la mayoría de las personas encuentran las respuestas que buscan en cinco turnos del chat y que solo 1% de las conversaciones tienen más de 50 mensajes. Pese a que el objetivo del chatbot no es conversar eternamente, los creadores de Windows quieren ofrecer esta alternativa.

Tenemos la intención de recuperar los chats más largos y estamos trabajando duro mientras hablamos sobre la mejor manera de hacerlo de manera responsable.

Sumado a los nuevos ajustes, Microsoft también probará una característica que permite elegir el tono del chat. Las opciones disponibles serán Preciso —enfocado en respuestas breves y centradas a la búsqueda —, Equilibrado y Creativo, este último dará respuestas más largas con aspecto de conversación.

Microsoft seguirá probando y haciendo cambios en la IA de Bing sobre la marcha

Interfaz principal del nuevo Bing impulsado por GPT 3 o GPT 4 y ChatGPT

El nuevo Bing impulsado por la IA de ChatGPT ha estado en el centro de la discusión durante los últimos días. La experiencia ha sido distinta para cada usuario, aunque una constante es el comportamiento errático de la inteligencia artificial en los chats largos. Sydney — nombre clave del buscador — ha entablado conversaciones románticas, perdido la cabeza y acusado a la robot Sophía de querer matarla.

Según los ingenieros, esto se debe a que el modelo tiende a confundirse durante sesiones extendidas. Considerando que algunos usuarios han pasado hasta dos horas chateando con el Bing, es común que se produzca este comportamiento. La empresa también dijo que la IA intenta responder o reflejar el tono en que se piden las respuestas.

Si bien Microsoft asegura que las pruebas marchan bien, la empresa quiere equilibrar las menciones negativas que ha tenido Bing. En días pasados, periodistas y expertos han expuesto los fallos del chatbot, dejando entrever que no puede confiarse todavía en la inteligencia artificial o incluso, que significará el fin de la raza humana.

Lo cierto es que todos estos inconvenientes son parte de un proceso. Microsoft dijo que la razón por la que realizan una prueba abierta de Bing es para encontrar casos de uso atípicos en los que puede aprender y mejorar el producto. La empresa está poniendo atención a la retroalimentación de sus usuarios y seguirá actualizando el buscador.

Si quieres usar Bing con ChatGPT puedes solicitar un acceso a la herramienta en bing.com/new. Aunque todos son libres de inscribirse, la tecnológica está dando prioridad a aquellos que completen las tareas recomendadas, como descargar la app de Bing o establecer Microsoft Edge como el navegador predeterminado.