三星员工在使用ChatGPT时意外地泄露了有关公司的敏感信息,这让他们陷入了严重的麻烦中。ChatGPT是帮助三星员工检查源代码的工具,因此三星的半导体部门可以访问这个AI聊天机器人。
有三个不同的情况导致了机密文件的传播。包括黏贴机密源代码、共享代码以进行代码优化请求,以及记录会议以转换为演示文稿的笔记。
要点:
- 三星员工在使用ChatGPT时意外地泄露了机密数据。
- 三星立即采取行动,将每个人的ChatGPT上传能力限制为1024字节。
ChatGPT是一个AI聊天机器人,它收集用户的个人数据,这些数据被用户用于训练模型,ChatGPT的用户们应该牢记这一点。三星的员工似乎通过意外地泄露了有关自己公司的绝密数据而吃了个痛头。
据报道,三星员工在使用AI聊天机器人ChatGPT进行工作时意外泄露了一些机密数据。三星的半导体部门允许员工使用ChatGPT来检查源代码并在工作中为工程师提供帮助。
然而,韩国经济学家报道称,三星员工在使用ChatGPT时意外地泄露了三个不同的实例,其中包含各种敏感信息。
- 在一个实例中,发现三星员工将机密源代码粘贴到AI聊天机器人的聊天框中以寻找错误。
- 在第二个实例中,另一名三星员工分享了代码,并请求对ChatGPT进行代码优化。
- 第三个实例展示了一次会议的录音,其中提出了将其转换为演示文稿的请求。
这是一个让隐私专家非常关注的假设情景的真实例子。另一个情景包括传播法律和机密文件或医疗信息,以帮助总结和分析长篇内容,这些内容可以后续用于改进模型的运行。隐私专家曾警告说,ChatGPT可能违反GDPR合规性,因此意大利最近对这个AI聊天机器人进行了调查。
三星在这种情况下立即采取了行动,限制了每个人的ChatGPT上传能力为1024字节。他们还在调查此事,并寻找涉及私人数据传播的人。他们甚至考虑建立一个内部AI聊天机器人以帮助防止未来出现类似问题。
尽管三星很可能不会撤回泄露的数据,因为ChatGPT的使用指南明确表示,该模型使用数据来训练模型,除非用户要求退出。即使在OpenAI的ChatGPT使用指南中,也明确指出在与AI聊天机器人进行对话时,不要明确使用任何个人或敏感数据。
鉴于三星的情况,企业在使用ChatGPT时必须格外谨慎,避免在与AI聊天机器人对话时分享敏感数据。