韩国SAMSUNG开放员工使用ChatGPT后,发生机密资料外泄事件!

韩国SAMSUNG开放员工使用ChatGPT后,发生机密资料外泄事件!

韓國SAMSUNG開放員工使用ChatGPT後,發生機密資料外洩事件!

根据韩国当地媒体Economist的消息指出,
韩国知名企业三星电子(SAMSUNG)允许其旗下员工使用ChatGPT作为辅助工具,以便更快地修复原始程式码中的错误。
然而,这一决定却意外导致了公司机密资料的泄露,包括会议纪录、工厂性能和产量等机密资讯。

过往三星电子(SAMSUNG)由于资讯安全的问题禁止员工使用ChatGPT,
但因近期考虑开发可被公司监管的自有AI聊天机器人服务,
因此于今年3月11日在员工的要求下开放让员工使用ChatGPT作为工作上的辅助工具,
但同时也强烈呼吁员工不得分享机密资讯。

根据外媒 Tom′s Hardware 的报导,三星电子已报告的3件因使用ChatGPT导致机密泄漏事件的内容如下:
・案例1: 一名工程师在资料库程式开发期间为解决程序代码的错误,于是将整份程序代码复制粘贴至ChatGPT的对话中。
・案例2: 某员工使用ChatGPT辨识缺陷晶片的测试模板,并要求改善。
・案例3: 某员工使用 Naver Clova 应用程式将会议纪录转成档案,再使用ChatGPT 生成文件档。
由于这些被上传至ChatGPT的资讯,会被当成聊天机器人AI模型的训练资料。
因此,这些事件可能让外部的使用者透过使用ChatGPT而得知三星电子的机密资讯。

目前三星电子已经紧急启动资讯保护措施,
并限制员工使用ChatGPT时每个问题的资讯量只能在1024 byte以下,同时也针对公司内部展开调查。
三星电子也警告员工,若再有类似事件发生将全面禁止员工于公司内部网路使用ChatGPT。
而过去OpenAI也曾在公司的FAQ网页提醒使用者,不宜在ChatGPT对话中分享敏感资讯。

RCS资安中心也在此提醒使用者,在使用ChatGPT时,为避免资讯外流,您需要注意以下几点:
1.保护敏感信息:在与ChatGPT互动时,请勿透露任何敏感信息。例如帐户密码、身份证号码、银行帐户等。
2.自定义数据安全设置:对ChatGPT进行定制和优化,以增强数据保密和隐私保护功能。
3.遵守公司政策:在使用ChatGPT时,确保遵循您所在公司或组织的信息安全政策和规定。
4.谨慎分享聊天记录:避免将与ChatGPT的对话记录分享给不需要知道相关信息的人,防止资讯外泄。
5.使用企业级AI解决方案:请遵循公司建议使用的企业级AI解决方案,以确保数据安全。
6.审查生成的内容:在使用ChatGPT生成的内容之前,请仔细审查以确保其不包含敏感或机密信息。
7.定期更新和维护:保持与AI工具的良好沟通,及时了解并安装所有必要的安全更新和维护。
8.提高资讯安全意识:定期接受有关资讯安全的培训,以提高自己在使用AI工具时的安全意识。

遵循以上建议,将有助于您在使用ChatGPT时避免资讯外流。
在享受AI带来的便捷之馀,同时确保数据安全和保密。

發佈留言