Don't Miss
AI恐增病毒風險?|大模型助合成病毒風險增
By 信報財經新聞 on July 8, 2025
原文刊於信報財經新聞「CEO AI⎹ EJ Tech」
美國非牟利組織預測研究院(FRI)近日發表研究報告,指出大型語言模型(LLM)在生物學領域知識表現進展快速,可能增加人為引發大規模傳染病風險。該研究在去年12月至今年2月間,訪問了46名具生物安全或實驗室經驗的專家,以及22名頂尖預測人員。
專家憂引發大規模傳染病
受訪專家對2028年由人為因素引發疫情的基準風險中位數為每年0.3%,預測人員提供的數字則為0.38%。若LLM能幫助非專家成功合成流感病毒,這個風險將增至1.25%。
當LLM的表現跟頂尖病毒學專家團隊相當,又或是同時展現多項高風險能力,風險會進一步升至1.5%或2.3%。
研究報告又稱,目前部分LLM能力已超出受訪者預期,像是OpenAI於今年4月發表的o3模型,已經可在病毒學測驗,匹敵人類專家團隊。雖然多數專家預測LLM的相關能力,要到2030年以後才會實現,實際情況卻是它很可能會提前數年出現。
關於緩解措施,參與者普遍認為,非開源的封閉模型、強化反越獄機制與強制DNA(脫氧核糖核酸)訂單篩檢等措施,能有效降低風險。全面採用前述做法的話,可把原本的1.25%風險減至0.4%。報告最後建議,應持續監測LLM能力發展,並提倡建立跨領域專家合作與治理框架,以因應快速演進的技術能力。
支持EJ Tech

