全球算力發展三大趨勢(車品覺)
本文作者車品覺,為港交所獨立非執行董事、香港基因組中心董事、香港大學中國商業學院客座副教授,為《信報》撰寫專欄「全民大數據」。
在6月的2025台北國際電腦展(COMPUTEX 2025)主題演講中,美國晶片巨擘輝達(Nvidia)創辦人兼行政總裁黃仁勳,首次詳細披露下一代人工智能(AI)平台,Rubin GPU(R100)採用台積電的N3P(3納米增強版)工藝,並首次商業化集成HBM4高頻寬記憶體。
最引人注目的創新是,Rubin平台將集成一顆專門的神經處理單元(NPU)作為「智能體輔助處理器」(Agent Co-processor),旨在以極低功耗高效處理AI智能體在任務上的規劃、環境感知、工具調用時的決策邏輯,把大模型的核心推理與Agent的「思考」過程在硬件層面上分離,大幅提升複雜AI任務的執行效率。
另外,台積電在本月的技術論壇宣布,其備受期待的2納米N2已順利進入風險性試產階段,首批客戶包括蘋果和輝達。更重要的是,台積電首次公開了1.6納米A16的初步技術細節。A16將採用更先進的垂直堆疊納米片電晶體(CFET)與背面供電網路(Backside Power Delivery)技術,旨在把電晶體密度和效能再提升15%至20%。此舉目的是鞏固其在2027年至2028年技術節點上的領先地位,滿足未來訓練萬億級參數模型及「通用人工智能」(AGI)系統的超龐大算力需求。
這些突破性進展,共同描繪出全球算力發展的三大核心趨勢:
1. 從「單卡算力」到「系統頻寬」:競爭焦點已不再是單個圖像處理器(GPU)的浮點運算(FLOPs)值,而是整個計算集群的系統級性能,特別是節點間的互聯頻寬及記憶體頻寬,這決定了訓練萬億參數模型時的擴展效率和實際樽頸。
2. 推理成本成為核心戰場:隨着大模型應用的普及,AI推理的總算力消耗,已開始追平甚至超過訓練的算力需求。
3. 算力異構與軟件協同:中央處理器(CPU)、GPU、神經處理單元(NPU)以及各種專用加速器(ASIC)的異構計算成為常態。勝負在於軟件棧能否無縫地協同、調度不同類型的算力資源,為開發者提供統一、高效的程式設計介面。
有這樣卓越的硬件,怎能不提一下OpenAI向開發者小規模展示的GPT-5預覽版中,一個名為「持續認知」(Persistent Cognition)」功能所引起的熱議。該功能允許模型在長達數周的時間跨度內,使用記憶與特定用戶的交互歷史和偏好,並在不同任務中主動運用這些「記憶」推理。例如,它能記住用戶是一位心臟科專家,在後續討論中自動使用更專業的醫學術語,這標誌着模型從「無狀態」工具向有狀態的個性化邁出了關鍵一步。
(編者按:車品覺著作《覺悟.大數據》現已發售)
歡迎訂購:實體書、電子書
更多車品覺文章:
支持EJ Tech

