Don't Miss
All posts tagged "MoE"
-
影片生成模型|阿里Wan2.2圖文生成電影級短片
阿里巴巴(09988)推出業界首個「混合專家」(MoE)構架的開源視頻生成模型系列Wan2.2,當中包含文生視頻模型Wan2.2-T2V-A14B、圖生視頻模型Wan2.2-I2V-A14B。
- Posted August 1, 2025
-
MoE模型
「混合專家」(Mixture of Experts)模型,是一種機器學習架構,特別是在深度學習領域廣泛應用。通過把任務分解給多個專門的子模型(稱為專家),以提高模型的效率和性能,再由一個「門控網絡」(Gating Network),決定每個輸入應該由哪個專家處理。
- Posted April 8, 2025