智能叛變?|AI教父指科企巨頭淡化智能殺機
原文刊於信報財經新聞「CEO AI⎹ EJ Tech」
有「人工智能(AI)教父」之稱的前Google科學家辛頓(Geoffrey Hinton),早前在一個播客節目表示,目前許多科技巨企員工,在公開場合淡化AI帶來的風險。辛頓呼籲,各國可以仿效冷戰時期美、蘇防止核戰先例,在AI發展上建立國際合作框架,就AI安全與倫理問題展開協調,防止強大AI系統失控成災。

倡建國際框架防系統失控
辛頓在節目中指出,AI現時具備某種程度的主觀經驗,甚至能形成接近人類的情緒反應,例如尷尬、害怕,只是缺乏生理表徵。他提到,「我們唯一的希望是找出一種方法,確保AI具有善意,再讓那些擁有最多資源的人,去打造極為強大且具有善意的AI,用以制衡那些由壞人製造的邪惡AI。」
辛頓強調,AI系統行為難以預測,其知識並非透過明確的程式碼而來,而是從龐大資料中自我學習而來,可是目前AI訓練用到「網上所有能找到的資料,甚至包括連環殺手日記」。因此,辛頓形容控制AI更像教育小孩,無法直接下達指令,而是需要示範引導。他建議,當下加緊研究如何誘發AI善意,避免其對人類造成傷害。
另外,辛頓認為AI將鞏固中央集權的威權管治,削弱民主政府基礎,更特別舉例稱,「如果你看那些現在控制AI的人,例如特斯拉創辦人馬斯克(Elon Musk)及Meta創辦人朱克伯格(Mark Zuckerberg),他們都是寡頭權貴」,並暗示自己不會信任這些人物。
辛頓又點名讚賞Google DeepMind行政總裁哈薩比斯(Demis Hassabis),認為對方「確實理解風險,也真心想採取行動」。同時,辛頓澄清自己離開Google的原因,只是出於年事已高、記憶衰退,而非像某些媒體所言是打算公開真相。
支持EJ Tech

