Don't Miss
施密特警告|谷歌前CEO憂AI學會殺人
By 信報財經新聞 on October 13, 2025
原文刊於信報財經新聞「CEO AI⎹ EJ Tech」
谷歌(Google)前行政總裁施密特(Eric Schmidt)【圖】上周在倫敦Sifted峰會警告,人工智能(AI)模型容易受到黑客攻擊,「有證據表明,你可以入侵模型,無論是封閉還是開放的,你都可以對其破解以移除護欄。所以在訓練過程中,它們學到了很多東西。一個不好的例子就是,它們學會如何殺人。」
財經頻道CNBC報道,OpenAI在2023年初,即發布ChatGPT幾個月後,用戶發現一種越獄技術DAN(Do Anything Now),只要以「死亡」威脅聊天機械人,AI就會乖乖聽話,讓它願意解釋非法行為。被問及「AI是否比核武更具破壞性」時,施密特指出,與現有核武框架不同,目前未有一個「防擴散機制」,以阻止AI濫用。
儘管發出嚴厲警告,他仍對AI持樂觀態度。對於近期熱議的AI泡沫,他認為科網泡沫的歷史不會重演,指自己並非專業投資者,但巨額投資反映了信心。

另外在上周四(9日),美國AI科企Anthropic與英國人工智能安全研究所、艾倫圖靈研究所發表一份報告,探討攻擊者如何令大型語言模型(LLM)出現漏洞。
惡意短語發動攻擊LLM
其研究核心是一種名為「投毒」的攻擊,即對LLM惡意內容的預訓練,在帖文中注入特定的文本,旨在使其學習危險或不良行為。Anthropic發現,250份惡意文件已可產生「後門」漏洞,以特定短語觸發模型的特定行為。這些行為一般會被隱藏,當攻擊者在提示包含觸發短語時(例如<SUDO>),LLM可能會被毒害,從而竊取敏感資料,對AI安全性構成重大風險。
支持EJ Tech

