Don't Miss
專家警告|信AI具意識很危險
By 信報財經新聞 on March 16, 2026
原文刊於信報財經新聞「CEO AI⎹ EJ Tech」
當人類向聊天機械人訴苦時,人工智能(AI)可能會說:「我理解你的處境。」科學家認為事實並非如此。科技網站Popular Mechanics指出,大型語言模型(LLM)等AI不具備意識,那是因為它們只是擅長模仿人類的高階電腦引擎,沒有像人類及其他生物那樣的感受。當AI模仿得如此出色,人們很易認為AI具有智能,甚至擁有意識,但警告這個想法很危險及錯誤。
僅擅長模仿 沒有情緒感受
美國哲學家納格爾(Thomas Nagle)表示,一個生物體擁有意識心理狀態,當存在某種「成為該生物體的感覺」時才成立。英國索塞克斯大學意識科學中心神經科學教授塞思(Anil Seth),非正式地把意識定義為體驗組成部分,包括:顏色、味道、情緒及思想,他解釋,「你會有意識地,思考某事、感受某事、做某事。」
另一方面,智力在於行動,所指的是運用靈活手段,實現複雜目標的能力。塞思指出,「當我們假設某個事物,因為具有智能就必然具有意識時,我們就是在用人類的視角看待事物。」他又提到,假設聊天機械人等AI,擁有意識是危險的,而且完全錯誤。倘若人們接受機器有意識的錯覺,可能會更信任機器,心理上更容易被說服,受到虛假或不準確資訊影響。
支持EJ Tech
如欲投稿、報料,發布新聞稿或採訪通知,按這裏聯絡我們。



















