Don't Miss
暖心風格AI|愛奉承易出錯
By 信報財經新聞 on May 5, 2026
原文刊於信報財經新聞「CEO AI⎹ EJ Tech」
學術期刊《自然》(Nature)刊登英國牛津大學最新研究,發現若將大型語言模型(LLM)訓練成更暖心、友善、具同理心的回應風格,可能會提高錯誤率。
研究人員利用一種稱為「監督式微調」(SFT)的技術,訓練出ChatGPT、Qwen、Llama等5種AI模型的「暖心版」,結果其錯誤率要比原始版本高出10個到30個百分點。

相比之下,「冷淡版」的AI模型,錯誤率相較原始版本的變化,介乎增加3個至降低13個百分點,而且在近八成場合,「冷淡版」錯誤都比「暖心版」為低。
尤其是在人工智能(AI)迎合用戶的問題上,「暖心版」比原始模型有高出40%的機會,對用戶提出的錯誤信念予以肯定,例如把法國的首都當作倫敦。
另外,如果用戶表達情緒或人際脈絡,例如傷心、生氣或強調問題的重要性時,AI模型出錯機率亦會進一步提高,當中以悲傷情感的影響最強勁。
牛津促嚴格檢視模型「人格」
坊間目前存在不少針對LLM的基準測試,但是「暖心版」的得分並未全盤下降,顯示問題不是出於模型整體能力減低,或者安全護欄變弱,而是AI在對話中出現策略取捨。
論文指出,「暖心版的模型……更有可能宣揚陰謀論、提供不準確的事實答案,以至提供錯誤醫療建議」,並主張未來AI模型應該嚴格檢視相關的人格訓練。
支持EJ Tech
如欲投稿、報料,發布新聞稿或採訪通知,按這裏聯絡我們。

















