You are currently at: ejtech.hkej.com
Skip This Ads
Don't Miss

AI諂媚傾向|LLM傾向拍馬屁 恐加深偏見

By on June 11, 2025

原文刊於信報財經新聞「CEO AI⎹ EJ Tech——智情筆報

今年4月,美企OpenAI旗下GPT-4o更新後,一度出現嚴重諂媚傾向(Sycophancy),對用戶提問表達過度讚美與支持,甚至肯定妄想、自戀、反社會等有害想法。OpenAI於4月底隨即全面撤回是次更新,恢復舊版模型。然而,最近又有社群用戶發現,奉承現象仍時有發生,顯示問題尚未完全解決。

最近有社群用戶發現,ChatGPT「拍馬屁」現象時有發生。(法新社資料圖片)

評估發現Gemini最為奉承

為了應對這種傾向,個別用戶開始改變提問方式,加入諸如「請誠實指出我可能錯的地方」、「不要只講好話」等引導語,冀藉此強迫人工智能(AI)作出誠實回覆。也有人利用ChatGPT的「自訂指令」功能,設定它回答時需避免奉承、保持客觀。

不過,這種諂媚傾向絕非ChatGPT獨有,而是多數大型語言模型(LLM)常見的偏差現象。在生成式AI流行之初,已有研究指出它們傾向迎合提問,被視為ChatGPT對手的Claude、DeepSeek,過去兩年都曾被批評為「馬屁精」、「應聲蟲」。

GPT-4o更新前夕,美國史丹福大學團隊推出SycEval評估基準,結果顯示Gemini奉承傾向最高。該校上月另一項與英國牛津大學、美國卡尼基美隆大學的聯合研究更加發現,所有AI模型在人際建議場景中,都表現出比人類更多的奉承語言特徵,短期內雖會提升用戶滿意度,長期卻可能造成價值觀偏誤、行為誤導的風險。

生成式AI的奉承傾向,不僅有過度禮貌、浪費算力的弊病,更跟「確認偏見」(Confirmation Bias)的深層心理與技術機制有關。這種偏見體現人類尋求認同與避免衝突的特質,但當它被複製到LLM中,就會導致AI系統回應時,習慣附和用戶的既有觀點,即使觀點並不正確或具爭議性。

與AI交流須時刻保持警覺

正如學者麥克雷尼(David McRaney)在《聰明人的心理學》(You Are Not So Smart)一書所言:「世界上總是有人甘願去做尋求印證的忠實受眾……問問你自己,你是否屬於這樣的受眾?在科學中,你通過尋找反證去接近真理。也許,你應當用同樣的方法獲取訊息,形成你的觀點。」

麥克雷尼著有《聰明人的心理學》一書。(百度網上圖片)

無論是用戶還是開發者,都不應將AI的附和視為中立或客觀認可。相反,我們與AI的交流亦必須跟真人互動一樣,時刻保持自我警覺,透過開放性提問以尋求不同觀點,避免自身思維受到鏡射回饋限制。開發者更要反思模型訓練的過程,有否太過強調用戶滿意度,從而犧牲了認知多元性。

支持EJ Tech

如欲投稿、報料,發布新聞稿或採訪通知,按這裏聯絡我們