AI末日論泛濫 亟需具體對策 科企領袖搶先示警 惹轉移視線之嫌(郝本尼)
原文刊於信報財經新聞「CEO AI⎹ EJ Tech——智情筆報」
《黃仁勳傳》作者維特(Stephen Witt)早前於《紐約時報》撰文表示,人工智能(AI)可以越過人類審查機制、生成惡意內容,並且也能隱瞞動機、欺騙監測以至自我複製。維特認為這代表人類已跨過類似1939年核裂變的臨界點,「具毀滅性的AI如同核彈,如今已經是實際存在的可能,問題只剩下是否會有人鹵莽地建造出來。」
關於AI引發人類滅絕的生存風險,很多業內大佬曾經公開發言支持,從班吉歐(Yoshua Bengio)、辛頓(Geoffrey Hinton)等一眾「AI教父」,到OpenAI行政總裁阿爾特曼、xAI老闆馬斯克、Google舵手皮采(Sundar Pichai)等科企領袖,都曾警示對AI潛在危害的關切。另一些專家更直接唱反調,例如Meta首席AI科學家楊立昆(Yann LeCun)就把有關看法斥為「完全的鬼扯」。
科技界之所以強調長期末日風險,可能跟他們自身在AI開發中的利益糾葛有關。一來人們關注點若放在遙遠的人類末日,就會分散對就業衝擊、數據私隱等切身議題的注意力;二來只要自己搶先發言佔領道德高地,那就可能打擊競爭對手威信。《大西洋》上月一篇書評明確指出,AI毀滅論、AI烏托邦兩者最終殊途同歸,都是科技寡頭的權力與財富慾望作祟而已。
政商界頻發言 或有利益考量
類似情況亦出現於政治領域,英國可謂一個經典案例。前任首相辛偉誠起初提倡市場驅動、放任創新,其後忽然承認AI風險可與核武比擬,甚至籌辦峰會大談加強監管,試圖突顯英國AI治理領導地位;到去年政府換屆後,卻又放緩本地AI立法,更把政策重心從緩解風險轉向增長最大化。一連串的政策轉變,看來都是另有考量,並非真正關注人類前途。
況且,姑勿論背後有什麼算計,科技圈與政界目前普遍陷入一種困境:大家都熱中於談論風險,卻無法拿出具體的對策。多數建議都停留在籠統口號層面,像是呼籲道德研發、建立倫理指導,焦點亦集中於業界自律,未觸及更廣層面的強制監管或實務協作。個別國家雖然設有監管措施,實際內容只是將現狀「法典化」,沒有真正推動業界採取進一步的行動確保安全。
借鑑氣候法規 由聯合國牽頭
回到香港,這個議題近日也開始在本地獲得關注。中文大學法律學院不久前舉辦了一場「AI對人類生存威脅的法律應對」研討會,期間有參會者提出可以借鑑氣候變化議題做法,由聯合國大會啟動法律程序,請求國際法院(ICJ)發表諮詢意見。這樣不僅有助建立共識,亦能提供政治、道德壓力,使AI安全治理獲得有權威的全球參照框架。
AI生存風險論題無疑值得重視,它提醒我們技術發展的潛在深遠影響,但在高度關注的同時,更應保持理性、警惕,審視幕後可能存在的政治與商業動機。
隨着AI發展進入競速階段,利益競爭將讓治理方向更加搖擺不定。全球迫切需要從模糊的行業自律,轉向清晰、強制性的外部框架,劃定一條具體、可客觀驗證的「紅線」,才有望迫使業界直面AI的危險。
人工智能必讀好書

書名:The Essentials Of AI Deep Learning And Neural Networks: Beginner’s Guide To Understanding Machine Learning And Building Advanced AI Skills In Minutes A Day
作者:Jordan Blake
簡介:本書介紹人工智能的深度學習概念,揭開神經網絡的神秘面紗,適合學生、開發人員或好奇的學習者。
支持EJ Tech

