智譜AI正式發佈並開源混合專家(MoE)模型GLM-4.7-Flash,總參數31B,激活參數僅3B,定位爲同級別性能與效率最優的輕量化選擇。即日起,該模型替代GLM-4.5-Flash,在智譜開放平臺BigModel。cn提供免費調用(1併發)。
官方公佈多項基準測試結果顯示,GLM-4.7-Flash在SWE-bench Verified(59.2%)、τ²-Bench(79.5%)、AIME 25(91.6%)、GPQA(75.2%)等指標上超越gpt-oss-20b、Qwen3-30B-A3B-Thinking-2507等同尺寸開源模型,取得開源SOTA成績。尤其在編程前後端任務中表現突出,同時官方推薦用於中文寫作、翻譯、長文本理解、情感對話及角色扮演等通用場景。
模型已支持BF16/F32精度,可通過Hugging Face(zai-org/GLM-4.7-Flash)和魔搭社區(ZhipuAI/GLM-4.7-Flash)下載權重,兼容vLLM、SGLang、Transformers等主流推理框架,便於本地部署。
值得注意的是,原免費模型GLM-4.5-Flash將於2026年1月30日下線,下線後平臺將自動路由請求至新模型,用戶需及時更新API調用代碼。
開源地址:huggingface。co/zai-org/GLM-4。7-Flash
![]()
更多遊戲資訊請關註:電玩幫遊戲資訊專區
電玩幫圖文攻略 www.vgover.com

