韓國SAMSUNG開放員工使用ChatGPT後,發生機密資料外洩事件!

韓國SAMSUNG開放員工使用ChatGPT後,發生機密資料外洩事件!

根據南韓當地媒體Economist的消息指出,
韓國知名企業三星電子(SAMSUNG)允許其旗下員工使用ChatGPT作為輔助工具,以便更快地修復原始程式碼中的錯誤。
然而,這一決定卻意外導致了公司機密資料的洩露,包括會議紀錄、工廠性能和產量等機密資訊。

過往三星電子(SAMSUNG)由於資訊安全的問題禁止員工使用ChatGPT,
但因近期考慮開發可被公司監管的自有AI聊天機器人服務,
因此於今年3月11日在員工的要求下開放讓員工使用ChatGPT作為工作上的輔助工具,
但同時也強烈呼籲員工不得分享機密資訊。

根據外媒 Tom′s Hardware 的報導,三星電子已報告的3件因使用ChatGPT導致機密洩漏事件的內容如下:
 ・案例1: 一名工程師在資料庫程式開發期間為解決程式碼的錯誤,於是將整份程式碼複製貼上至ChatGPT的對話中。
 ・案例2: 某員工使用ChatGPT辨識缺陷晶片的測試模板,並要求改善。
 ・案例3: 某員工使用 Naver Clova 應用程式將會議紀錄轉成檔案,再使用ChatGPT 生成文件檔。
由於這些被上傳至ChatGPT的資訊,會被當成聊天機器人AI模型的訓練資料。
因此,這些事件可能讓外部的使用者透過使用ChatGPT而得知三星電子的機密資訊。

目前三星電子已經緊急啟動資訊保護措施,
並限制員工使用ChatGPT時每個問題的資訊量只能在1024 byte以下,同時也針對公司內部展開調查。
三星電子也警告員工,若再有類似事件發生將全面禁止員工於公司內部網路使用ChatGPT。
而過去OpenAI也曾在公司的FAQ網頁提醒使用者,不宜在ChatGPT對話中分享敏感資訊。

RCS資安中心也在此提醒使用者,在使用ChatGPT時,為避免資訊外流,您需要注意以下幾點:
1.保護敏感資訊:在與ChatGPT互動時,請勿透露任何敏感資訊。例如帳戶密碼、身份證號碼、銀行帳戶等。
2.自定義數據安全設置:對ChatGPT進行定制和優化,以增強數據保密和隱私保護功能。
3.遵守公司政策:在使用ChatGPT時,確保遵循您所在公司或組織的資訊安全政策和規定。
4.謹慎分享聊天記錄:避免將與ChatGPT的對話記錄分享給不需要知道相關資訊的人,防止資訊外泄。
5.使用企業級AI解決方案:請遵循公司建議使用的企業級AI解決方案,以確保數據安全。
6.審查生成的內容:在使用ChatGPT生成的內容之前,請仔細審查以確保其不包含敏感或機密資訊。
7.定期更新和維護:保持與AI工具的良好溝通,及時了解並安裝所有必要的安全更新和維護。
8.提高資訊安全意識:定期接受有關資訊安全的培訓,以提高自己在使用AI工具時的安全意識。

遵循以上建議,將有助於您在使用ChatGPT時避免資訊外流。
在享受AI帶來的便捷之餘,同時確保數據安全和保密。

 

發佈留言