美國時間周一,微軟為其人工智能文本轉圖像生成工具Designer引入瞭更多保護措施,禁止人們用它來制作名人的非自願假照片。據悉,上周在X上瘋傳的泰勒·斯威夫特(Taylor Swift)人工智能生成裸照來自4chan和Telegram頻道,迫使微軟做出瞭改變。

微軟修復漏洞 旗下AI不能再生成名人假裸照

微軟發言人證實瞭這一事件,並表示:“我們對此已展開調查,並正采取相應措施解決問題。我們的行為準則明確禁止使用我們的工具創建成人或未經同意的私密內容。任何違反我們政策的行為,尤其是反復嘗試制作這類內容,都將導致用戶無法繼續使用我們的服務。我們有一支龐大的團隊,致力於根據我們負責任的人工智能原則開發各種安全系統,包括內容過濾、操作監控和濫用檢測等,以減少系統的濫用可能性,並為用戶創造一個更安全的環境。”

微軟強調,一項正在進行的調查無法證實X上斯威夫特的假裸照是用Designer制作的,但該公司將繼續加強其文本過濾提示,並解決濫用其服務的問題。上周五,微軟首席執行官薩蒂亞·納德拉(Satya Nadella)在接受采訪時表示,“我們有責任”為人工智能工具增加更多“護欄”,以防止它們制作有害內容。上周末,X開始徹底屏蔽對“泰勒·斯威夫特”的搜索。

納德拉說:“這關乎全球社會在規范上的融合。我們可以做到這一點,尤其是在法律、執法部門和科技平臺的共同努力下。我相信,我們可以管理的范圍遠遠超過我們目前的認知。”

經過404 Media等媒體測試以及4chan和Telegram上的消息顯示,用戶利用漏洞生成圖像的操作已不再有效。

在斯威夫特人工智能生成圖片上周引發關註之前,Designer已經阻止用戶生成帶有“泰勒·斯威夫特裸體”等文字提示的圖片,但Telegram和4chan上的用戶發現,他們可以通過稍微拼錯名人的名字,以及描述不使用任何性術語但會導致性暗示的圖片來繞過這些保護。

微軟修復漏洞後,引發瞭網友熱議。根據404 Media的報道,Telegram上的一名用戶在頻道中寫道:“我認為微軟的Designer已經被打補丁瞭。”

另一位用戶回應道:“好像它再也無法生成名人的照片瞭。即使是搜索克洛伊·莫瑞茲(Chloe Moretz),也隻會生成普通的金發女孩。我嘗試更換服務器和賬號,但得到的結果都是一樣的。”

還有用戶表示:“我覺得它現在已經完蛋瞭。Ariana,、Kylie Jenner,、Lisa、Zendaya這樣的名人,現在都隻展示出與她們長相或種族相似的普通女孩照片。”

404 Media並未公佈Telegram頻道的名稱,因為Telegram並未刪除該頻道,而且通常不會從其平臺上刪除太多有害內容。該頻道擁有數萬名成員,但404 Media並未公佈特定用戶的身份。分享Telegram頻道的名稱隻會吸引更多人關註它,無益於為有害內容的目標提供任何追索權。

盡管Telegram頻道仍在分享人工智能生成的成人圖片,其中一些似乎是用其他人工智能工具生成的,還有一些是從其他網站上提取的。雖然該頻道的重點是利用微軟的Designer這一免費且易於使用的工具,但有許多其他方法可以在網上制作這種有害的內容。例如,目前任何人都可以下載名人模型並在自己的電腦上本地運行,以生成有害內容。在4chan上,一些用戶聲稱他們已經發現瞭必應和Designer的新漏洞。

Telegram頻道上的一位用戶表示:“我堅信,如果這裡被關閉瞭,我們會找到其他地方來制作人工智能內容。”

點讚(0) 打賞

评论列表 共有 0 條評論

暫無評論

微信小程序

微信扫一扫體驗

立即
投稿

微信公眾賬號

微信扫一扫加關注

發表
評論
返回
頂部