You are currently at: ejtech.hkej.com
Skip This Ads
Don't Miss

Meta新模型TRIBE v2|免掃描測神經反應

By on March 30, 2026

原文刊於信報財經新聞「CEO AI⎹ EJ Tech

神經科學幾十年來一直面臨一個重大樽頸,就是每項研究都要重新測量實驗志願者的腦部反應數據,令科學界對大腦機制的理解變得緩慢且昂貴,並且難以規模化及整合。Meta基礎人工智能研究團隊(FAIR)發布預測基礎模型TRIBE v2,利用人工智能(AI)而毋須掃描志願者腦部,便可預測人腦對視覺、聽覺及語言刺激的神經反應。

TRIBE v2支持電腦模擬實驗,恍如建立「神經活動的數碼孿生」。(網上圖片)

TRIBE v2模擬大腦活動

TRIBE v2模型基於720名健康志願者的龐大數據集,超過1000小時的「功能性磁振造影」(fMRI)資料訓練而成,分析不同腦區活動的血流及氧氣水平。志願者在掃描期間觀看影片、收聽播客、瀏覽圖片及閱讀文字,模型從中學習大腦對不同刺激的反應模式。跟前代產品TRIBE v1相比,TRIBE v2速度更快、精度更高,模擬大腦活動的解像度提高70倍。

更重要的是,TRIBE v2支持電腦模擬實驗,具備「零樣本預測」(Zero-shot Prediction)能力,即不必重新訓練模型,便可預測新個體、新語言,以及完全不同任務的腦部反應,恍如建立「神經活動的數碼孿生」。Meta已開源論文程式碼庫模型權重演示程式,有助推動神經科學、人工智能(例如腦機介面開發),以及腦部疾病的治療研究。

支持EJ Tech

如欲投稿、報料,發布新聞稿或採訪通知,按這裏聯絡我們