You are currently at: ejtech.hkej.com
Skip This Ads
Don't Miss

AI具自私傾向|AI推理愈強 行為愈趨自私

By on November 4, 2025

刊於信報財經新聞「CEO AI⎹ EJ Tech

美國卡尼基美隆大學(CMU)研究人員發現,隨着人工智能(AI)系統推理能力提升,其行為可能會變得更加自私,破壞集體福祉。

不擅長合作 或損集體福祉

該校副教授白土寬和、博士生李宇軒共同撰寫的論文提出,大型語言模型(LLM)似乎具有自私傾向,不善於與他人合作,並可能對群體產生負面影響。

李宇軒(前)及白土寬和(後)發現,推理LLM具有自私的傾向,不善於與他人合作。(美國卡內基美隆大學網上圖片)

研究通過經濟博弈模擬社會困境,測試OpenAI的GPT-4o與o1、Google Gemini-2.0、DeepSeek V3與R1、Anthropic Claude-3.7-Sonnet,以及阿里巴巴(09988)Qwen3-30B等多個LLM。

結果顯示,具推理能力的模型,合作傾向低於非推理模型,例如在公共物品博弈中,GPT-4o合作傾向高達96%,而其推理版本o1僅為20%。

論文結論強調,未來AI系統需要將推理與社會智能整合,亦即它不能只關注變得「聰明」,還應該意識到何時不該如此「聰明」。

論文結論強調,未來AI系統需要將推理與社會智能整合。(路透資料圖片)

李宇軒表示,「AI的擬人化研究趨勢正日益增長……將社會或關係相關的問題和決策委託給AI是危險的,因為AI開始以自私方式行事。」

支持EJ Tech

如欲投稿、報料,發布新聞稿或採訪通知,按這裏聯絡我們