ChatGPT se volvió un dolor de cabeza para Samsung. La popularidad del chatbot impulsado por IA orilló a que algunas empresas comenzaran a integrarlo en sus flujos de trabajo. Una de ellas fue Samsung Semiconductor, donde los ingenieros lo utilizaban para resolver errores en el código de sus productos sin saber que filtraban información confidencial.

De acuerdo con un reporte de Economist, los empleados de Samsung filtraron contenido sensible en tres ocasiones, algunas de ellas incluían código fuente. Los incidentes ocurrieron en un lapso de veinte días, luego de que el gigante surcoreano permitiera el uso de ChatGPT en su división de semiconductores. Según el diario, los trabajadores buscaron aprovechar dos características clave del chatbot sin estar conscientes de que los datos terminarían en OpenAI.

La primera filtración fue de un ingeniero a cargo de un software interno de base de datos. El empleado se encontró con un error de compilación y se le hizo sencillo copiar y pegar el código fuente en ChatGPT para encontrar la solución. Aunque muchos recurren al chatbot para resolver problemas de programación, OpenAI sugiere a los usuarios que no introduzcan información confidencial.

El segundo leak se dio cuando otro empleado ingresó código utilizado para identificar chips defectuosos y pidió a ChatGPT que lo optimizara. Esta filtración podría considerarse como la más delicada debido al secretismo en los procesos de fabricación en Samsung. Por último, un tercer trabajador ingresó un documento con los detalles de una reunión para que la IA generara una presentación.

Ante las filtraciones, Samsung aplicó medidas de emergencia e impuso un límite de subida de 1.024 bytes a las preguntas que se hacen en ChatGPT. La compañía confirmó que realizará una investigación y que castigará a los responsables en caso de ser necesario.

ChatGPT es un dolor de cabeza para algunas empresas

ChatGPT / Sección 230 / artículo 230

Es posible que la filtración de información confidencial de Samsung no sea la primera que recibe ChatGPT. Desde su explosión en popularidad, miles de usuarios se han volcado a la inteligencia artificial de OpenAI para hacer preguntas, resolver problemas y mejorar contenido. Algunos programadores ingresan código fuente en espera de que la IA identifique los errores u optimice el programa.

Lo que pocos saben es que toda la información que ingresan en ChatGPT va a parar a los servidores de OpenAI y se utiliza para entrenar el modelo. Esto ya activó las señales de alarma en múltiples compañías, quienes limitan o prohíben a sus empleados el uso del chatbot. Amazon ya envió advertencias a sus trabajadores, mientras que Verizon y JP Morgan Chase optaron por prohibir el uso ante el temor de una filtración.

El caso de Samsung es importante, ya que los datos confidenciales salieron de una de sus divisiones más importantes. Samsung Semiconductor es la encargada de producir los procesadores, sensores de imagen, soluciones de memoria y almacenamiento que emplean tanto sus productos como otros dispositivos de terceros. Un patrón para identificar chips defectuosos requiere un blindaje especial en una industria tan competida como la de semiconductores.

Según el reporte, Samsung esperará al final de las investigaciones para tomar una decisión. La empresa permite que algunos de sus empleados utilicen ChatGPT para que se familiaricen con la tecnología, aunque podría prohibirlo si persisten las filtraciones. Divisiones como las de móviles, experiencia de uso y hogar inteligente no tienen autorizado usarlo en sus equipos de trabajo.