El uso de ChatGPT por un trabajador de Samsung provoca la filtración de datos confidenciales
La división de semiconductores de Samsung confió en ChatGPT para solucionar problemas en su código fuente. Sin embargo, mientras utilizaban el chatbot de IA, divulgaron accidentalmente información confidencial, como el código fuente de un nuevo programa y notas de reuniones internas sobre su hardware. Por desgracia, no fue un hecho aislado, ya que se registraron tres incidentes en el plazo de un mes.
Para evitar violaciones similares en el futuro, Samsung está trabajando en el desarrollo de su propia herramienta de IA similar a ChatGPT, de uso exclusivo para empleados internos. De este modo, sus fabulosos trabajadores podrán recibir asistencia rápida al tiempo que protegen la información confidencial de la empresa. Sin embargo, esta nueva herramienta sólo procesará mensajes de 1024 bytes o menos.
El problema se produjo porque ChatGPT está gestionado por una empresa externa que utiliza servidores externos. Por tanto, cuando Samsung introdujo su código, secuencias de prueba y contenido de reuniones internas en el programa, se filtraron datos. Samsung informó rápidamente a sus directivos y empleados del riesgo de que la información confidencial se viera comprometida. Hasta el 11 de marzo, Samsung no había permitido a sus empleados utilizar el chatbot.
ChatGPT La preocupación por la privacid...Samsung no es la única empresa que se enfrenta a este problema. Muchas empresas están restringiendo el uso de ChatGPT hasta que establezcan una política clara sobre el uso de la IA generativa. Aunque ChatGPT ofrece una opción de exclusión voluntaria para recopilar datos de los usuarios, cabe señalar que su desarrollador puede seguir teniendo acceso a la información suministrada al servicio.
- ¿Qué es ChatGPT y cómo funciona?
- ¿Qué medidas ha tomado Samsung para evitar futuras filtraciones?
- ¿Cuáles fueron las consecuencias para los empleados que filtraron datos confidenciales?
- ¿Qué tipo de información confidencial se filtró?
- ¿Cuántas veces filtraron los empleados de Samsung datos confidenciales a ChatGPT?
¿Qué es ChatGPT y cómo funciona?
ChatGPT es una aplicación de IA desarrollada por OpenAI que utiliza el aprendizaje profundo para producir texto similar al humano en respuesta a las indicaciones del usuario. Puede generar texto en varios estilos y para diversos fines, como redactar textos, responder preguntas, redactar correos electrónicos, mantener conversaciones, traducir lenguaje natural a código y explicar código en varios lenguajes de programación.
ChatGPT funciona prediciendo la siguiente palabra de un texto determinado utilizando los patrones que ha aprendido de una gran cantidad de datos durante su proceso de entrenamiento. Analizando el contexto del mensaje y su aprendizaje anterior, ChatGPT genera una respuesta que pretende ser lo más natural y coherente posible.
Cómo hacer jailbreak ChatGPT-4 Con Dan ...¿Qué medidas ha tomado Samsung para evitar futuras filtraciones?
Tras las filtraciones de datos provocadas por ChatGPT, Samsung ha tomado varias medidas para evitar que vuelvan a producirse incidentes de este tipo. En primer lugar, la empresa ha aconsejado a sus empleados que tengan cuidado al compartir datos con ChatGPT. También han implementado una restricción en la longitud de las preguntas enviadas al servicio, limitándolas a 1024 bytes.
Además, Samsung está desarrollando actualmente una herramienta de IA similar a ChatGPT, pero de uso exclusivo para empleados internos. Esto garantizará que los fabulosos trabajadores reciban asistencia rápida a la vez que se protege la información sensible de la empresa. Hasta el desarrollo de esta herramienta, Samsung había advertido a sus empleados de los riesgos potenciales asociados al uso de ChatGPT. También han destacado que los datos introducidos en ChatGPT se transmiten y almacenan en servidores externos, lo que hace imposible que la empresa controle los datos una vez entregados.
¿Cuáles fueron las consecuencias para los empleados que filtraron datos confidenciales?
Las consecuencias para los empleados de Samsung que filtraron datos confidenciales a ChatGPT no se han indicado explícitamente en la información disponible. No obstante, Samsung Electronics está tomando medidas para evitar nuevas filtraciones de información confidencial a través de ChatGPT, entre ellas la imposición de un límite de 1024 bytes al tamaño de las preguntas enviadas. La empresa también ha advertido a sus empleados de los riesgos potenciales de utilizar ChatGPT.
Cómo corregir el código de error 1020 ...Además, Samsung Semiconductor está desarrollando su propia herramienta de IA para uso interno de los empleados, que se limitará a procesar peticiones de menos de 1024 bytes. Estas acciones indican que Samsung se está tomando en serio la protección de su información confidencial y está aplicando medidas para mitigar los riesgos asociados al uso de ChatGPT.
¿Qué tipo de información confidencial se filtró?
Al parecer, empleados de Samsung filtraron información confidencial de la empresa a ChatGPT en tres ocasiones distintas. Los datos filtrados incluían el código fuente de un nuevo programa, notas de reuniones internas e información relacionada con el rendimiento de la fábrica. En uno de los incidentes concretos, un empleado de Samsung Semiconductor envió inadvertidamente a ChatGPT el código fuente de un programa propio para corregir errores, revelando así sin querer el código de una aplicación ultrasecreta a un fabricante externo de chatbot de IA, OpenAI. Como ChatGPT retiene los datos que recibe, esta información confidencial está ahora en manos de OpenAI.
¿Cuántas veces filtraron los empleados de Samsung datos confidenciales a ChatGPT?
Según los resultados de la búsqueda, los empleados de Samsung filtraron información confidencial de la empresa a ChatGPT en al menos tres ocasiones.
¿Cómo funciona ChatGPT?Si quieres conocer otros artículos parecidos a El uso de ChatGPT por un trabajador de Samsung provoca la filtración de datos confidenciales puedes visitar la categoría ChatGPT.
Deja una respuesta
Contenido relacionado