in

三星禁止员工使用ChatGPT&其他人工智能工具

三星因安全风险禁止员工使用生成式人工智能工具,如ChatGPT。早些时候,三星遭遇了一个重大挫折,因为一些员工在访问ChatGPT时意外泄露了公司的敏感数据。为了避免这类事件,三星发布了一份新备忘录,禁止员工使用人工智能工具,以避免机密和个人数据的安全风险。

重点:
– 三星员工被禁止使用生成式人工智能工具,如ChatGPT、Bing等。
– 数据泄露等安全风险被认为是禁止使用生成式人工智能工具的主要原因。
– 公司在组织内进行的一项调查显示,65%的受访者认为使用ChatGPT等人工智能工具存在安全风险。

三星禁止使用ChatGPT等生成式人工智能工具

三星已经禁止其员工使用OpenAI的ChatGPT、Bing和其他人工智能工具等流行的生成式人工智能工具。这家韩国消费电子公司的员工通过一份由Bloomberg审查的备忘录了解到了这项新政策。在员工中使用生成式人工智能工具被禁止的主要原因是数据传输到ChatGPT、Bard和Bing等人工智能平台,由于数据存储在外部服务器上,很难检索和删除,这可能导致私人或机密数据被披露给其他用户,这让三星担忧。

根据Bloomberg的报告,该公司在上个月在组织内进行了一项调查。调查结果显示,约65%的受访者认为使用ChatGPT等人工智能工具存在安全风险。

一名三星员工表示:“对ChatGPT等生成式人工智能平台的兴趣在内部和外部都得到了广泛的增长。”

“对于ChatGPT等人工智能工具的吸引力是由于其有益的功能和效率,然而,这些生成式人工智能工具也存在一定的安全风险。”该员工补充道。

根据备忘录,由于三星工程师在几周前将内部源代码意外泄露给了OpenAI的聊天机器人ChatGPT,该公司对员工实施了新政策。根据韩国媒体的一份报告,三星员工将企业机密上传到了OpenAI的ChatGPT。其中一名员工甚至复制了半导体数据库下载程序的源代码,而另一名员工上传了程序代码以识别有缺陷的设备。第三名员工试图通过将会议记录上传到AI聊天机器人来自动生成会议纪要。

公司要求员工在使用个人设备访问ChatGPT或其他人工智能工具时,不要分享任何与公司相关的机密或个人数据,以免意外泄露公司的知识产权和数据。公司强调,不遵守公司制定的新政策可能会导致解雇。尽管新规则不会影响公司销售给消费者的设备,如Windows笔记本电脑和智能手机。

三星正在创建自己的人工智能工具

据报道,三星一直在开发自己的人工智能工具,可以用于各种功能,如软件开发、文档摘要和翻译。

备忘录中说:“总部正在评估安全方法,以确保用户使用生成式人工智能工具的环境完全安全,以提高生产力。”

备忘录还说:“在这些措施完全准备好之前,公司将限制使用人工智能工具。”

Written by 小竞 (编辑)

他们称呼我为小竞, 做作为河小马的助理有5年时间了,作为jingzhengli.com的编辑,我关注每天的科技新闻,帮你归纳一些现有科技以及AI产品来提升你的生产力,拥抱AI,让科技和AI为我们服务!