AI幻覺成因|LLM訓練鼓勵盲猜 催生「AI幻覺」 研究倡改評估機制 減錯誤回應
原文刊於信報財經新聞「CEO AI⎹ EJ Tech——科技解碼」
ChatGPT開發商OpenAI旗下幾位研究員,日前發表一篇題為《為何語言模型會有幻覺》的論文,詳細分析大型語言模型(LLM)產生錯誤陳述的原因。
論文開首先用內地人工智能(AI)模型DeepSeek模型作測試,包括提問作者生日、英文詞彙中特定字母的數量等,證明「最先進的開源語言模型」也會出現「幻覺」(Hallucinate),即生成貌似事實的虛假或誤導回應。
從語料學習規律解答
研究人員表示,「就像在考試面對難題的學生,大型語言模型若不確定答案,有時就會作出猜測,產生看似合理、實際錯誤的敍述,而非坦承不確定性。」
根據論文解釋,模型在預訓練階段,一般是從語料學習規律,並且據此判斷它的回應「是否有效」。不過,想生成正確無誤的答案,比單純判斷內容「是否有效」要複雜得多。
因此,若訓練資料存在缺乏規律的「任意事實」,例如某人的生日,模型就更容易產生「幻覺」。其餘因素像是模型設計不良、計算難度過高,或是數據包含事實錯誤,都會增加「幻覺」出現機率。
到後訓練階段,儘管工作目標旨在優化模型、減少「幻覺」,但現行主流的各項評估基準,大多採用二元評分方式,亦即正確答案得分,錯誤、空白或「我不知道」的回應一律無分。
在這種評估機制下,模型會被訓練成「應試者」(Test-takers),傾向在不懂得答案時仍會選擇盲目猜測,以至生成自信但錯誤的回答,亦即「幻覺」。
面對上述問題,OpenAI建議修改評估基準獎勵機制,加入明確「信心目標」,不再懲罰「不知道」的表達,錯誤答案則倒扣分數,冀藉此能夠開發更值得信賴的模型。
另外,論研究人員特別指出,檢索和推理雖有助減少錯誤,不過,若評分系統依舊鼓勵猜測,那麼「幻覺」仍會持續出現。
論文褒貶不一 有指乏新意
外界對OpenAI這篇論文的褒貶不一,有人認其為觀點正確但顯而易見、新意有限,但亦有人認同把大模型研究焦點,從堆疊規模轉向檢討評測。
根據SimpleQA評測,OpenAI上代o4-mini模型正確率為24%,略高於新一代GPT-5模型的22%。然而,o4-mini錯誤率卻高達75%,GPT-5只有26%,且逾半情況會拒絕回答不懂得的問題。
支持EJ Tech

