慢讯一则:智谱开源GLM-4.7-Flash 30B模型

智谱AI正式发布并开源混合专家(MoE)模型GLM-4.7-Flash,总参数31B,激活参数仅3B,定位为同级别性能与效率最优的轻量化选择。即日起,该模型替代GLM-4.5-Flash,在智谱开放平台BigModel。cn提供免费调用(1并发)。

官方公布多项基准测试结果显示,GLM-4.7-Flash在SWE-bench Verified(59.2%)、τ²-Bench(79.5%)、AIME 25(91.6%)、GPQA(75.2%)等指标上超越gpt-oss-20b、Qwen3-30B-A3B-Thinking-2507等同尺寸开源模型,取得开源SOTA成绩。尤其在编程前后端任务中表现突出,同时官方推荐用于中文写作、翻译、长文本理解、情感对话及角色扮演等通用场景。

模型已支持BF16/F32精度,可通过Hugging Face(zai-org/GLM-4.7-Flash)和魔搭社区(ZhipuAI/GLM-4.7-Flash)下载权重,兼容vLLM、SGLang、Transformers等主流推理框架,便于本地部署。

值得注意的是,原免费模型GLM-4.5-Flash将于2026年1月30日下线,下线后平台将自动路由请求至新模型,用户需及时更新API调用代码。

开源地址:huggingface。co/zai-org/GLM-4。7-Flash

更多游戏资讯请关注:电玩帮游戏资讯专区

电玩帮图文攻略 www.vgover.com