科企拚命發展AI 不惜棄初衷(郝本尼)
原文刊於信報財經新聞「CEO AI⎹ EJ Tech——智情筆報」
2025年將近尾聲,人工智能(AI)持續發展。然而,在這條高速賽道上,最先被犧牲的既非算力,亦非資本,而是當初被巨企掛在嘴邊的各種承諾,像是造福人類、開源共享、安全第一、私隱優先云云。一旦競爭白熱化、商業化加速,這些理想似乎都不得不讓路予其他現實考量。
最具象徵性的轉折,要數OpenAI的公司結構莫屬。今年10月,OpenAI完成重組,營利實體轉為公共利益公司(PBC),儘管其非牟利母企仍以基金會形式持股,但該企最近又積極為首次公開招股(IPO)鋪路,不少批評者認為這已背棄最初的非牟利理念。
OpenAI鋪路IPO Meta轉投閉源
此外,Meta過去長期以開源AI為傲,其行政總裁朱克伯格曾多次公開承諾推動開源,以對抗封閉系統的壟斷。豈料在今年7月,他表示不會開源「超智能」AI模型,到12月更傳出新的Avocado模型將改為採用封閉模式。
朱克伯格聲稱其中一個「轉軚」原因,是開源AI可能帶來安全風險。諷刺的是,另一間科技巨頭Google,卻在今年2月調整它的AI倫理框架,刪除了原本不把AI放在武器、監視等「造成或可能造成整體傷害」用途的明文限制,被外界視為是允許潛在AI軍事應用。
軍事應用開綠燈 谷歌捱轟
隨後Google發表Gemini 2.5 Pro模型時,又沒有同步提供其安全報告。63位跨黨派英國國會議員聯署發信表達不滿,指Google此舉違反去年5月首爾AI峰會簽署的《前沿AI安全性承諾》,「代表一種讓政府與公眾擔憂的信任破裂」。
即使是以安全導向而聞名的Anthropic,今年8月也更新了消費者條款與私隱政策,默認將Claude用戶對話用於模型訓練,而且資料保留期長達5年。同時,Anthropic亦涉多宗關於侵犯書籍、音樂版權或未授權下使用平台資料的案件。
未來生命研究所(FLI)去年開始編製《AI安全指數》報告,評估主流AI在風險評估、當前危害、安全框架、生存風險、治理問責、資訊共享6個領域的表現。據最新一期報告,前述幾間AI總體評分,仍然僅有C+至D級水平,遠未達標。
2025年這一連串違諾,反映AI產業走向基礎設施化後的必然張力:一邊是更快的迭代、更高昂的資本門檻,以及更激烈的競爭,另一邊是安全、私隱與透明度考量。欠缺約束力的口頭宣示,既無法再取信公眾,也沒可能指引技術發展。未來除了競逐模型性能,如何在商業化與信任間取得平衡,將是明年AI巨頭必須面對的難題。
支持EJ Tech
如欲投稿、報料,發布新聞稿或採訪通知,按這裏聯絡我們。












