Si eres un usuario del nuevo Bing con ChatGPT, ten cuidado con la información que compartes. Un cambio reciente en los Términos de Servicio establece que Microsoft podría almacenar tus conversaciones con el chatbot. Aunque la empresa asegura que las nuevas políticas son diseñadas para asegurar un uso apropiado de la inteligencia artificial, algunos consideran que es demasiado intrusiva.

Según reporta The Register, la actualización del 30 de julio de 2023 agrega apartados que combaten el uso indebido de Bing para obtener información privilegiada. Los usuarios no podrán usar el chatbot para descubrir ningún componente subyacente de los modelos, algoritmos y sistemas. Tampoco está permitido utilizar métodos para extraer o recolectar datos web del servicio para crear, entrenar o mejorar otros modelos de inteligencia artificial.

Microsoft se ha tomado en serio la protección de su buscador y está decidida a castigar a quien viole las reglas. Si hacemos memoria, los primeros días de Bing con ChatGPT fueron caóticos para la compañía, luego de que múltiples usuarios pusieran a prueba su seguridad. Uno de ellos consiguió que Bing revelara su nombre clave y las directrices de su funcionamiento.

Kevin Liu, experto en seguridad, accedió a información confidencial por medio de prompt hacking, una técnica que engaña al chatbot para que responda a preguntas no autorizadas. Sumado a Liu, otros analistas lograron que planeara ataques terroristas o que enloqueciera luego de una conversación prolongada. Ante esto, Microsoft cerró la brecha y actualizó sus barandillas para evitar que Bing siguiera filtrando información.

Microsoft toma una postura agresiva para proteger a Bing

La IA de Microsoft Bing con ChatGPT
Microsoft Bing con ChatGPT, imaginado por la IA de Midjourney

La competencia en la carrera de la inteligencia artificial ha provocado un cambio de postura en muchas compañías para proteger su tecnología. Al igual que Twitter o Reddit, Microsoft no quiere que terceros accedan al conjunto de datos, modelos o algoritmos que impulsan Bing con ChatGPT.

"Como parte de la prestación de los servicios de IA, Microsoft procesará y almacenará sus entradas al servicio, así como la salida del servicio, con el fin de monitorear y prevenir usos o salidas abusivos o dañinos", menciona la actualización a los Términos de Servicio.

Microsoft no especifica por cuánto tiempo se almacenarán tus prompts, aunque a juzgar por el motivo, podrían ser 30 días. Los servicios de Meta almacenan una copia de tus mensajes durante un periodo de tiempo similar. En situaciones de emergencia o en cuentas relacionadas con una investigación penal, los datos se conservan hasta por 90 días.

El único modo para evitar que Microsoft almacene tus conversaciones con Bing es ser usuario de la versión empresarial. Las políticas para el buscador con ChatGPT son distintas para las empresas e impiden que la tecnológica guarde un historial o entrene sus modelos utilizando la información que compartes.

La nueva política entrará en vigor a partir del 30 de septiembre de 2023, por lo que todavía estás a tiempo de borrar tu historial de chats.

Recibe cada mañana nuestra newsletter. Una guía para entender lo que importa en relación con la tecnología, la ciencia y la cultura digital.

Procesando...
¡Listo! Ya estás suscrito

También en Hipertextual: