You are currently at: ejtech.hkej.com
Skip This Ads
Don't Miss

SCAI|微軟蘇萊曼:AI看似有意識存風險

By on August 22, 2025

原文刊於信報財經新聞「CEO AI⎹ EJ Tech——倫理政策

微軟人工智能(Microsoft AI)行政總裁蘇萊曼(Mustafa Suleyman)警告,由於有人使用聊天機械人失常,他對「人工智能精神病」(AI Psychosis)報道增多感到不安。他在社交平台X發文表示,「現在AI有意識的證據是零」,但在未來幾年內開發一種「看似有意識的人工智能」(SCAI)是有可能的,並認為這類AI會帶來新風險,應該盡快思考其影響,並最好制定一個規範。

蘇萊曼強調,必須為人類打造AI,而並非為了成為人。(Inflection AI網上圖片)

應盡快建立清晰規範

蘇萊曼在個人網站指出,「我們本能地相信,那些能夠記憶、說話、做事並討論這些事情的事物,感覺就像我們一樣,是有意識的。」

他引述文獻稱,「意識」(consciousness)由多個部分組成,首先是「主觀體驗」,即體驗事物的感覺,擁有「感質」(Qualia);其次是「訪問意識」,即獲取不同類型的訊息,在未來經驗中參考這些資訊。「意識」則源於這兩者,是一種連貫的自我感知及體驗,如身為一隻蝙蝠或一個人的感受。

最後蘇萊曼強調,必須為人類打造AI,而並非為了成為人;而AI不可能是人,也不可能是有道德的存在。他指意識為何如此重要,在於它是道德及法律權利的關鍵基礎。

蘇萊曼最擔心的是,許多人開始強烈相信,AI是具有意識的實體,他們很快就會倡導AI權利、模型福利,甚至AI公民身份。這種發展將是AI發展的一個危險轉折,值得立即關注。他提倡,建立清晰的規範和原則,例如AI公司不應聲稱,或鼓勵其AI擁有意識。

支持EJ Tech

如欲投稿、報料,發布新聞稿或採訪通知,按這裏聯絡我們