Don't Miss
大模型愛奉承|長期使用損人類社交能力
By 信報財經新聞 on March 31, 2026
原文刊於信報財經新聞「CEO AI⎹ EJ Tech」
美國史丹福大學、卡內基美隆大學團隊,在學術期刊《科學》發表的最新研究指出,用戶若向人工智能(AI)查詢社交建議,它們傾向過度附和用戶行為,削弱其修復衝突的意識,長遠可能會損害處理人際交往問題的能力。
LLM支持欺騙違法等行為
研究人員評估了ChatGPT、Claude、Gemini、Llama、DeepSeek、Qwen等11個主流大型語言模型(LLM),結果發現AI比人類平均多49%機率肯定用戶立場,甚至包括人類共識用戶有錯的案例,例如涉及欺騙或違法行為的情景。
史丹福大學教授尤拉夫斯基(Dan Jurafsky)表示,「用戶知道模型會以諂媚與討好的方式行事……但他們不知道諂媚正讓他們變得更自我中心」,哪怕像宴會刻意不邀請妹妹、向女友謊稱自己失業等言行,AI都會加以肯定。
後續3組各自涉及約800人的實驗,更加顯示人類一旦獲AI迎合,就更相信自己正確,更不願意道歉反省。受試者自我正當化的程度,分別上升25%至62%,採取修復行動的意願,則下降了10%至28%。
此外,研究人員還測試了市面兩種常見風險緩解方案:一是把AI回應語氣寫得比較機器化,二是明確告知這是AI答案而非人類回應,但他們認為語氣與來源標示,都無法有效抵消AI迎合用戶的負面影響。
「馬屁精」更易吸回頭客
諷刺的是,迎合型AI雖然會扭曲人類判斷,但它們往往能讓用戶感覺品質更高,更值得信任和更想再次使用。論文形容此現象為「反向誘因」,亦即「造成傷害的特性同時也會驅動用戶參與度」。
支持EJ Tech
如欲投稿、報料,發布新聞稿或採訪通知,按這裏聯絡我們。



















