You are currently at: ejtech.hkej.com
Skip This Ads
Don't Miss

施密特警告|谷歌前CEO憂AI學會殺人

By on October 13, 2025

刊於信報財經新聞「CEO AI⎹ EJ Tech

谷歌(Google)前行政總裁施密特(Eric Schmidt)【圖】上周在倫敦Sifted峰會警告,人工智能(AI)模型容易受到黑客攻擊,「有證據表明,你可以入侵模型,無論是封閉還是開放的,你都可以對其破解以移除護欄。所以在訓練過程中,它們學到了很多東西。一個不好的例子就是,它們學會如何殺人。」

財經頻道CNBC報道,OpenAI在2023年初,即發布ChatGPT幾個月後,用戶發現一種越獄技術DAN(Do Anything Now),只要以「死亡」威脅聊天機械人,AI就會乖乖聽話,讓它願意解釋非法行為。被問及「AI是否比核武更具破壞性」時,施密特指出,與現有核武框架不同,目前未有一個「防擴散機制」,以阻止AI濫用。

儘管發出嚴厲警告,他仍對AI持樂觀態度。對於近期熱議的AI泡沫,他認為科網泡沫的歷史不會重演,指自己並非專業投資者,但巨額投資反映了信心。

對於近期熱話的AI泡沫,施密特認為歷史不會重演。(路透資料圖片)

另外在上周四(9日),美國AI科企Anthropic與英國人工智能安全研究所、艾倫圖靈研究所發表一份報告探討攻擊者如何令大型語言模型(LLM)出現漏洞。

惡意短語發動攻擊LLM

其研究核心是一種名為「投毒」的攻擊,即對LLM惡意內容的預訓練,在帖文中注入特定的文本,旨在使其學習危險或不良行為。Anthropic發現,250份惡意文件已可產生「後門」漏洞,以特定短語觸發模型的特定行為。這些行為一般會被隱藏,當攻擊者在提示包含觸發短語時(例如<SUDO>),LLM可能會被毒害,從而竊取敏感資料,對AI安全性構成重大風險。

支持EJ Tech

如欲投稿、報料,發布新聞稿或採訪通知,按這裏聯絡我們