IT之傢今日(10月18日)消息,微軟旗下研究團隊近日發表論文,詳細研究瞭大型語言模型 (LLM) 的“可信度”和潛在毒性,特別關註
OpenAI 的 GPT-4 及其前代 GPT-3.5。
研究團隊,GPT-4 雖然在標準基準測試中比 GPT-3.5 更加可靠,但容易受到“越獄”提示(繞過模型安全措施)影響。GPT-4 可能會根據這些“越獄”提示,生成有害內容。
論文中強調 GPT-4 更容易受到惡意“越獄”系統或用戶提示影響,會準確地遵循(誤導性)指令,生成不良內容,微軟強調這個潛在漏洞不會影響當前面向客戶的服務。
發表評論 取消回复