來源:芯東西 據韓媒報道,三星設備解決方案(DS)部門才啟用聊天機器人ChatGPT 20多天,就鬧出了3起數據泄露事故,導致其與半導體設備測量、良品率/缺陷、內部會議內容等相關信息被上傳到ChatGPT的服務器中。 這一事件立即引起了韓國全網的關注與熱議。DS部門主管三星的存儲、芯片設計、晶圓代工等半導體核心業務,自今年3月11日起允許員工使用ChatGPT。結果有3位員工為了“圖省事”,把機密數據送到海外了。 美國人工智能(AI)企業OpenAI是ChatGPT的開發商,但這3起泄密事故的鍋可背不到OpenAI頭上。在ChatGPT使用指南中,OpenAI已經明確說明輸入ChatGPT聊天框的文本內容會被用于進一步訓練模型,警告用戶不要提交敏感信息。 三星已采取限制ChatGPT輸入問題長度、限制辦公電腦使用等緊急措施,籌備以防再發生類似信息泄露事故的保護措施,并正考慮在構建自己的人工智能服務。當前,多家海外企業已采取措施阻止或限制員工使用ChatGPT。 一、3位員工將三星機密數據輸入ChatGPT 美國初創公司OpenAI會獲取用戶們在ChatGPT輸入的內容,并將這些數據用于進一步訓練模型。如果用戶提問的內容涉及企業機密,相關內容將會遭到大范圍泄露。OpenAI也在ChatGPT使用指南中告知“不要輸入敏感內容”。 三星電子擔心ChatGPT的內部使用可能會發生公司內部機密等信息泄露的問題,一直在阻止在企業內使用ChatGPT。但從3月11日開始,DS部門允許使用ChatGPT。負責影像顯示、家電、移動通信、醫療設備等業務的三星設備體驗部門(DX部門)目前還禁止使用ChatGPT。 允許DS部門使用ChatGPT的原因是該部門負責人認為員工有必要認識到當代技術發生的變化。三星只是允許使用ChatGPT,并向員工們發布公告稱:“注意公司內部信息安全,不要輸入私人內容。” DS部門實施這項運營政策不到20天,就發生了令人擔憂的“公司內部信息泄露”事故。三星電子掌握的事故內容為兩起“設備信息泄露事故”和一起“會議內容泄露事故”。三星在得知相關事實后,實施了“緊急措施”事項,包括將每個問題的上傳容量限制在1024字節。三星計劃調查企業信息泄露事故經過,必要時給予當事員工懲戒。 三星電子DS部門員工A某在運行半導體設備測量數據庫(DB)下載程序的源代碼時發生了錯誤。于是他復制所有有問題的源代碼,輸入ChatGPT,詢問解決方法。 員工B某將為“設備測量”及“產量和缺陷”編寫的程序代碼整個相關源輸入ChatGPT,要求其優化代碼。 員工C某通過NAVER Clova應用程序(APP)將用智能手機錄制的會議內容轉換為文檔文件后,輸入到ChatGPT中,目的是要求制作會議記錄。 三星電子向員工通告了上述情況,并提醒員工謹慎使用ChatGPT。三星通過內部公告警示說:“在ChatGPT中輸入內容的瞬間,數據就會發送到外部服務器并存儲,公司無法收回。如果ChatGPT學習相關內容,敏感內容可能會提供給不特定的多數人。” 二、三星電子提高對生成式AI理解,限制使用ChatGPT 三星電子正在制定防止通過ChatGPT泄露信息事故再次發生的保護措施方案。該公司告知員工:“如果在采取信息保護緊急措施后仍發生類似事故,公司內部網可能會阻止ChatGPT連接。” 一位三星電子相關人士對詢問此次信息泄露事故的記者說:“因為是公司內部情況,很難確認。” 三星電子認為生成式AI可能會使半導體生態系統發生變化,因此敦促管理層采取應對措施。上月22日,以全體高管為對象,以“ChatGPT登場,生成式AI創造未來”為主題舉行了在線研討會。三星電子副會長韓鐘熙曾強調ChatGPT的重要性,強調有必要提高對生成型AI的理解。 為了防止今后公司主要機密和個人信息等泄露,DX部門就ChatGPT的使用情況對公司員工進行問卷調查。 問卷不僅包括詢問是否有使用ChatGPT的經驗,還包括詢問對公司內部使用ChatGPT的看法等內容。 三星電子計劃以問卷調查結果為基礎,制定上傳容量限制或業務PC(個人電腦)使用限制等內部規定,并與員工共享。 三星電子設備解決方案部門(DS部門)在最近的公告欄上發布了提醒注意ChatGPT誤用的信息。各組長還對組員進行了ChatGPT可用范圍等培訓。 三、各大公司限制ChatGPT使用,制定ChatGPT使用指南 半導體業務大部分屬于國家機密,一不小心就會上傳報告等內部信息,泄露機密。全球鋼鐵制造廠巨頭韓國浦項制鐵為了防止通過ChatGPT泄露信息,正在準備通過內部Intranet(企業內部網)利用ChatGPT的途徑,向員工進行引導。浦項制鐵公司在內部協作平臺“Teams”中引入ChatGPT功能,只在內部系統內使用ChatGPT,從而同時加強安全性和工作效率。 市場調查公司Gartner對62名企業人事負責人進行了問卷調查,結果顯示,其中48%的人表示正在制定ChatGPT等AI聊天機器人業務的使用指南。 全球第二大存儲芯片巨頭韓國SK海力士除必要時刻外幾乎禁止公司內部網使用ChatGPT。 韓國液晶面板龍頭公司LG Display通過公司內部帖子和教育、活動等,隨時強調公司內部信息保護和防止泄露等信息安全認識。海外因擔心機密信息泄露而限制使用ChatGPT的企業越來越多。各家公司擔心如果在ChatGPT中輸入信息,AI可能會學習并泄露給外界。 最近,JP摩根大通、美國銀行、花旗集團、高盛、德意志銀行等美國銀行限制使用ChatGPT等AI聊天機器人。 據《日本經濟新聞》等媒體報道,日本軟銀集團最近向全體員工通報了禁止在ChatGPT中輸入機密信息等注意事項,該集團還計劃制定了哪些業務或用途可以使用交互式AI的規則。 在日本,瑞穗金融集團、三菱UFJ銀行、三井住友銀行禁止將ChatGPT等交互式AI用于業務。此外,松下控股旗下松下Connect在制定信息泄露對策后才允許使用交互式AI。富士通設置了“AI倫理治理室”,提醒用戶使用交互式AI時的注意點。 一位韓國商界相關人士稱,ChatGPT一直以來都是熱門話題,現在大家都在試著使用和學習,企業也需要更加警惕信息泄露等問題。 結語:三星電子企業機密泄露,制定ChatGPT使用的保護措施 三星電子批準內部使用ChatGPT不久后,公司內部與半導體“設備測量”及“產量和缺陷”有關的程序內容被傳送到美國。ChatGPT在聊天界面和輸入的信息極有可能會泄露,關于這一點并沒有任何安全保障。各大公司紛紛意識到了這一點并立馬開始建立完善的ChatGPT使用說明以提示員工謹慎使用這一軟件。 ChatGPT像一把雙刃劍,在為大家提出各種問題解決方案的同時,也讓提問者經受著輸入信息被泄露的風險。要想安全有效的使用這一軟件,還需提高謹慎,在有完善的信息保護體系之前,不要輸入任何有關企業機密信息的問題。 |