You are currently at: ejtech.hkej.com
Skip This Ads
Don't Miss

本地創科動態|AI生成詞 非感官領域最似人話

By on June 10, 2025

原文刊於信報財經新聞「CEO AI⎹ EJ Tech

人工智能(AI)沒聞過花香,沒觸摸過花瓣,沒在花園散過步,能否真正了解什麼是「花」?香港理工大學與美國俄亥俄州立大學、普林斯頓大學及紐約市立大學的研究人員,分析大型語言模型(LLM)與人類在概念表徵上的相似度,發現LLM生成詞彙表徵與人類表徵的相似度,在非感官運動領域最高,感官領域次之,在運動領域表現最差。相關論文發表在學術期刊Nature Human Behaviour

研究發現,LLM生成的詞彙表徵與人類表徵的相似度,在非感官運動領域最高。(理大提供圖片)

運動詞彙表現最差

理大研究團隊選取大語言模型ChatGPT(GPT-3.5及GPT-4)和Google LLMs(PaLM及Gemini)所生成的詞彙評分,並將其與公開發表並經過驗證的《格拉斯哥詞彙範本》、《蘭卡斯特詞彙範本》數據集中近4500個詞語的人類評分比較。這些評分涵蓋了非感官運動領域,包括情感效價、具體性、可意象性等維度;感官領域,包括視覺、嗅覺、聽覺等維度,以及運動領域,包括腿腳、嘴巴、喉嚨等維度。

有份領導今次研究的理大冼為堅基金人文與科技講座教授、人文學院院長兼理大杭州技術創新研究院副院長李平。(理大提供圖片)

根據研究結果,模型雖能有效掌握非感官運動領域的概念,惟在理解涉及視覺外觀、味覺等感官概念,或需要肢體動作體驗的運動概念時,表現明顯較為遜色。研究並揭示「具身化訓練」(Grounding),即為LLM提供感官(如視覺)及運動訊息,讓模型將抽象與具體概念聯繫起來,可以影響其對複雜概念的理解,生成內容接近人類的表徵。研究團隊指出,今後可透過類人形機械人技術,把LLM與多模態數據整合,使其能主動解讀真實世界,並作出相應行動。

支持EJ Tech

如欲投稿、報料,發布新聞稿或採訪通知,按這裏聯絡我們