You are currently at: ejtech.hkej.com
Skip This Ads
Don't Miss

Qwen3|阿里Qwen3懂深思亦可速答

By on April 30, 2025

原文刊於信報財經新聞「CEO AI⎹ EJ Tech

阿里巴巴(09988開源新一代通義千問模型Qwen3,包括兩個混合專家(MoE)模型及6個密集模型,參數範圍由6億到2350億不等,現可於人工智能(AI)開發平台Hugging Face,以及代碼託管平台GitHub下載。Qwen3支援119種語言及方言,不但採用混合專家架構,更是阿里首次推出「混合推理模型」,可以花時間「推理」複雜問題,或快速回答更簡單的請求。

Qwen3不但採用混合專家架構,更是阿里首次推出「混合推理模型」。(Hugging Face網上圖片)

跟DeepSeek-R1、OpenAI-o1、OpneAI-o3-mini、Grok-3及Gemini-2.5-Pro等其他頂級型號相比,在編碼、數學、通用能力等基準評估中,旗艦型號Qwen3-235B-A22B取得有競爭力的成績。

此外,開發團隊改善Qwen3模型在編碼及代理的能力,也加強它對「模型上下文協議」(MCP)的支援。對於本地使用,建議使用 Ollama、LMStudio、MLX、llama.cpp及KTransformers等工具。

支持EJ Tech

如欲投稿、報料,發布新聞稿或採訪通知,按這裏聯絡我們