新浪科技今日(5月2日)消息, 三星電子公司以安全為由,暫時禁止員工使用ChatGPT、谷歌巴德和必應等流行的生成式人工智能工具,這使人工智能技術在工作場所的普及遭遇挫折。
根據一份內部備忘錄,三星電子周一將新政策通知瞭其最大部門之一的員工。該文件稱,公司擔心,傳輸到此類人工智能平臺的數據存儲在外部服務器上,難以檢索和刪除,並可能最終被泄露給其他用戶。
該公司對員工表示:“公司內外對ChatGPT等生成式人工智能平臺的興趣一直在增長。雖然人們的興趣集中在這些平臺的實用性和效率上,但人們也越來越擔心生成式AI帶來的安全風險。”
三星隻是最新一傢對這項技術表示擔憂並采取行動的大公司。今年2月,就在OpenAI的聊天機器人服務激起人們對該技術興趣的幾個月後,包括摩根大通、美國銀行和花旗集團在內的一些華爾街銀行禁止或限制瞭該服務的使用。出於對隱私的擔憂,意大利政府也一度禁止使用ChatGPT,不過最近幾天改變瞭立場。
三星的新規定禁止在公司擁有的電腦、平板電腦和手機以及內部網絡上使用生成式人工智能系統。它們不會影響該公司銷售給消費者的設備,比如安卓智能手機和Windows筆記本電腦。
三星要求在個人設備上使用ChatGPT和其他工具的員工不要提交任何可能泄露其知識產權的公司相關信息或個人數據。該公司警告稱,違反新政策可能會導致被解雇。
三星在備忘錄中表示:“我們要求你們努力遵守我們的安全準則,如果不這樣做,可能會導致公司信息泄露或泄露,從而導致紀律處分,甚至終止雇傭關系。”
該公司上個月進行瞭一項關於內部使用人工智能工具的調查,並表示65%的受訪者認為此類服務構成安全風險。備忘錄稱,4月初,有三星工程師將內部源代碼上傳到ChatGPT上,不小心泄露瞭源代碼。
備忘錄稱:“總部正在審查安全措施,為安全使用生成式人工智能創造一個安全的環境,以提高員工的生產力和效率。然而,在準備好這些措施之前,我們暫時限制瞭生成式人工智能的使用。”
與此同時,該公司正在創建自己的內部人工智能工具,用於翻譯和總結文檔以及軟件開發。該公司還在研究阻止公司敏感信息上傳到外部服務的方法。上個月,ChatGPT增加瞭一種“隱身”模式,允許用戶阻止他們的聊天記錄被用於人工智能模型訓練。
發表評論 取消回复