Samsung no quiere que sus empleados sigan filtrando información a través de ChatGPT u otras plataformas similares. Por ello, ha tomado una drástica decisión. En adelante, los trabajadores de la firma surcoreana tienen prohibido usar herramientas de IA generativa en dispositivos corporativos.

Según reporta Bloomberg, la compañía asiática ha confirmado la determinación. El temor de Samsung es que el incremento en el uso de chatbots como ChatGPT, Bard o Bing derive en la exposición sin autorización de datos sensibles o protegidos por propiedad intelectual que puedan quedar almacenados en servidores de terceros.

En un mensaje a sus empleados, los coreanos han establecido pautas de seguridad contundentes. De ahora en más, no podrán utilizar herramientas de IA generativa en ordenadores, móviles o tablets pertenecientes a la empresa; como así tampoco acceder a las mismas desde sus redes internas. Quienes no cumplan con dichos lineamientos quedarán expuestos a graves castigos, incluyendo un posible despido.

En cuanto a los dispositivos personales de su staff, Samsung no aplicará restricciones técnicas para impedir el acceso a ChatGPT y plataformas similares. No obstante, desde la compañía han llamado a sus trabajadores a ser conscientes de no compartir informaciones relacionadas con la empresa, ni datos personales que puedan derivar en la divulgación de material confidencial.

Samsung pone un freno al uso de ChatGPT y otras IA generativas entre sus empleados

ChatGPT | Samsung
Photo by Babak Habibi on Unsplash

No queda claro si la prohibición de Samsung al uso de ChatGPT y otras IA generativas afecta a toda las áreas de la corporación, o solamente a algunas específicas. Bloomberg indica que, en principio, la notificación de esta medida de seguridad se envió a los integrantes de una de sus divisiones más importantes. No obstante, no especifica a cuál.

De todos modos, no sería raro que el primer sector afectado por el bloqueo al uso de herramientas de inteligencia artificial de terceros sea Samsung Semiconductor. Dicha subsidiaria fue noticia a comienzos de abril, tras conocerse que sus ingenieros habían compartido información confidencial con el chatbot de OpenAI en al menos tres oportunidades.

Los empleados de esa división usaban ChatGPT para resolver errores en el código de sus productos, sin percatarse de que estaban compartiendo datos sensibles. De hecho, se cree que algunos de los inadvertidos leaks incluyeron código fuente perteneciente a Samsung, lo cual agrava todavía más la situación.

Vale aclarar, de todos modos, que la prohibición de los surcoreanos al uso de la IA generativa será temporal. La compañía informó que está trabajando en una herramienta que impedirá la carga de datos confidenciales en servicios de terceros. Su intención es brindar los parámetros "para crear un entorno seguro para el uso de la inteligencia artificial, para mejorar la productividad y la eficiencia de los empleados". Sin embargo, la misma todavía no se encuentra disponible.

El recelo de Samsung a permitir que más información sensible se vuelva a filtrar es comprensible. Herramientas como ChatGPT evolucionan tan rápido que es muy difícil seguirles el ritmo. Además, los parámetros sobre qué información almacenan y cómo la utilizan para entrenar a sus modelos de lenguaje todavía están lejos de alcanzar su madurez.

Recordemos que el chatbot de OpenAI anunció la semana pasada que ahora permite desactivar el historial de conversaciones. Sin embargo, la medida no es del todo efectiva para evitar filtraciones, puesto que los chats permanecerán almacenados en sus servidores por 30 días antes de su eliminación definitiva.

Recibe cada mañana nuestra newsletter. Una guía para entender lo que importa en relación con la tecnología, la ciencia y la cultura digital.

Procesando...
¡Listo! Ya estás suscrito

También en Hipertextual: