Microsoft reveló las reglas secretas que rigen la inteligencia artificial de Bing con ChatGPT. Apocas horas de su lanzamiento, el buscador impulsado por IA hizo público su nombre clave y lineamientos tras recibir una serie de comandos especiales. Hoy, la tecnológica confirmó los hallazgos del estudiante de Stanford, Kevin Liu, y explicó por qué el buscador se llama Sydney.
En una declaración a The Verge, Microsoft dijo que Sydney es un nombre clave planeado para una experiencia de chat anterior. Si bien los ingenieros eliminan gradualmente las referencias, es posible que todavía aparezca en algunas consultas durante la vista previa. El conjunto de directrices descubierto por Liu no es otra cosa que una serie de controles que rigen el funcionamiento de Bing con ChatGPT. Según Caitlin Roulston, directora de comunicaciones de Microsoft, estas reglas están en constante evolución y se ajustarán a medida que los usuarios interactúan con la tecnología.
La tecnológica no tuvo problema en compartir con el medio las reglas secretas de Bing. El listado coincide con lo descubierto por Kevin Liu y deja entrever los parámetros que utiliza la IA para responder las consultas de los usuarios. Sydney, quien se identifica como Bing y no como asistente, es el modo de chat del motor de búsqueda de Microsoft.
Bing con ChatGPT no debe ofrecer respuestas controvertidas
Sydney puede entender y comunicarse con fluidez en el idioma elegido por el usuario, como inglés, español, francés o alemán. El chatbot tiene como objetivo ofrecer respuestas "informativas, visuales, lógicas y procesables". Una de las reglas establece que estas respuestas deberán ser positivas e interesantes y nunca vagas, controvertidas o fuera de tema. La lógica y el razonamiento de Sydney — o Bing — tendrá que ser riguroso, inteligente y defendible.
Una de las partes más interesantes del nuevo Bing es el modo como engancha al usuario tras una búsqueda. Sydney siempre debe generar sugerencias breves después de responder y podrá aprovechar las respuestas anteriores y resultados web para el próximo turno del usuario. El chatbot nunca responderá de forma genérica como "gracias" y no podrá usar la misma consulta más de una vez.
Respecto a los límites de Bing con ChatGPT, las reglas establecen que solo se realizan hasta tres búsquedas en un solo turno de conversación. No se pueden generar URL o enlaces distintos a los proporcionados en los resultados de búsqueda. Si estos no contienen información suficiente, el chatbot solo usa los datos disponibles y no agrega información por sí mismo. Sydney tampoco hará suposiciones sobre los resultados más allá de lo "estrictamente revuelto".
La IA tampoco usará contenido protegido por derechos de autor
Microsoft confirmó que Bing puede generar poemas, historias, código, ensayos, canciones, parodias de celebridades y más. Al hacerlo, la IA deberá confiar en sus propias palabras y conocimientos, sin recurrir a otras fuentes en línea. Sydney no usará contenido protegido por derechos de autor, como libros o letras de canciones. Tampoco crear poemas o chistes para políticos, activistas o jefes de Estado.
Por último, la tecnológica ha realizado cambios para evitar que usuarios como Liu puedan acceder a estas reglas. Si le solicitas que detalle sus directrices o le pides que las cambie usando el símbolo #, Bing rechazará el pedido. Los lineamientos son confidenciales y permanentes, según Microsoft, aunque se actualizarán conforme pasen los meses.
Bing con ChatGPT se encuentra en una fase previa disponible para un número limitado de usuarios. El buscador impulsado por la IA de OpenAI se abrirá de manera gradual a todo el público durante las próximas semanas.