小米正式發佈並開源全新 MoE 架構大模型 Xiaomi MiMo-V2-Flash。以 “極致效率” 爲核心定位,在參數量、推理速度、任務性能與成本控制上實現多維突破。
![]()
官方介紹稱,這是一個專爲極致推理效率自研的總參數 309B(激活 15B)的 MoE 模型,通過 Hybrid 注意力架構創新及多層 MTP 推理加速,在多個 Agent 測評基準上保持進入全球開源模型 Top 2。
![]()
代碼能力超過所有開源模型,比肩標杆閉源模型 Claude 4.5 Sonnet,但推理成本僅爲其 2.5%,生成速度提升 2 倍。性能還能媲美開源 DeepSeek-V3.2 模型。
模型核心規格
參數量級:總參數量達 3090 億,爲模型儲備了充足的知識與任務處理能力;但實際推理時僅激活 150 億參數,大幅降低計算資源消耗,避免傳統大模型 “重推理” 的痛點。
上下文窗口:支持 256K 超長上下文,可處理相當於一本中等篇幅小說或數十頁技術文檔的文本量,滿足多輪智能體交互、長文檔分析等複雜場景需求。
開源協議與生態:基於 MIT 開源協議,模型權重(含 MiMo-V2-Flash-Base 版本)已完整發佈於 Hugging Face,同時開源推理代碼並貢獻至 SGLang 框架,開發者可直接複用現有訓練與推理基礎設施,無需大規模重構。
API 接入
MiMo-V2-Flash API 開放平臺兼容 OpenAI API、Anthropic API 兩種主流格式,MiMo-V2-Flash 的 API 定價爲輸入 $0.1/M tokens,輸出 $0.3/M tokens,API 限時免費。
![]()
在線體驗
另外小米發佈基於 Xiaomi MiMo-V2-Flash 在線 AI 聊天,無需代碼即可體驗模型 Xiaomi MiMo-V2-Flash 能力,支持聊天、創作、腦洞問答,具備深度思考與聯網搜索功能,可實時覈對信息、獲取最新動態。
![]()
更多遊戲資訊請關註:電玩幫遊戲資訊專區
電玩幫圖文攻略 www.vgover.com
