You are currently at: ejtech.hkej.com
Skip This Ads
Don't Miss

暖心風格AI|愛奉承易出錯

By on May 5, 2026

原文刊於信報財經新聞「CEO AI⎹ EJ Tech

學術期刊《自然》(Nature)刊登英國牛津大學最新研究,發現若將大型語言模型(LLM)訓練成更暖心、友善、具同理心的回應風格,可能會提高錯誤率。

研究人員利用一種稱為「監督式微調」(SFT)的技術,訓練出ChatGPT、Qwen、Llama等5種AI模型的「暖心版」,結果其錯誤率要比原始版本高出10個到30個百分點。

HKEJ20260427A01_·sµØªÀ·Ó¤ù¡A¥_¨Ê¡A2026¦~4¤ë14¤é 2026¦~3¤ë25¤é¡A¤H­Ì¦b¥_¨Ê¥«¤¤Ãö§ø®i¥Ü¤¤¤ß±`³]®i¤Wªº¡u¤H¤u´¼¯à+¡v®i°Ï°ÑÆ[¡C ¡]°t¥»ªÀ¦PÃD¤å¦r½Z¡^ ·sµØªÀ°OªÌ Áù·Ø©v Äá

相比之下,「冷淡版」的AI模型,錯誤率相較原始版本的變化,介乎增加3個至降低13個百分點,而且在近八成場合,「冷淡版」錯誤都比「暖心版」為低。

尤其是在人工智能(AI)迎合用戶的問題上,「暖心版」比原始模型有高出40%的機會,對用戶提出的錯誤信念予以肯定,例如把法國的首都當作倫敦。

另外,如果用戶表達情緒或人際脈絡,例如傷心、生氣或強調問題的重要性時,AI模型出錯機率亦會進一步提高,當中以悲傷情感的影響最強勁。

牛津促嚴格檢視模型「人格」

坊間目前存在不少針對LLM的基準測試,但是「暖心版」的得分並未全盤下降,顯示問題不是出於模型整體能力減低,或者安全護欄變弱,而是AI在對話中出現策略取捨。

論文指出,「暖心版的模型……更有可能宣揚陰謀論、提供不準確的事實答案,以至提供錯誤醫療建議」,並主張未來AI模型應該嚴格檢視相關的人格訓練。

支持EJ Tech

如欲投稿、報料,發布新聞稿或採訪通知,按這裏聯絡我們