12月17日,小米重磅發布專家混合架構(MoE)大模型MiMo-V2-Flash並宣布全量開源。,這款總參數3090億、激活參數150億的新模型,憑藉「高性能 低成本」的雙重優勢,迅速引發行業關注。

作為聚焦推理、編碼及Agent場景的專用大模型,MiMo-V2-Flash的核心亮點在於靈活的使用體驗與強悍的實用能力。它支持「深度思考」與「即時響應」兩種模式切換,用戶可根據需求選擇不同交互方式;編碼場景下,既能一鍵生成完整功能的HTML網頁,又能與Claude Code、Cursor
等主流編碼框架無縫協作。256k的超長上下文窗口,更讓它能輕鬆應對數百輪Agent交互及工具調用任務。
權威基準測試顯示,該模型綜合性能與DeepSeek-V3.2等頭部開源模型基本持平,僅在無工具輔助的「人類最後一場考試」及創意文本評估ARENA-HARD中稍顯不足,但推理速度更快、時延更低。細分領域中,它在多個Agent測評基準中躋身全球開源模型Top 2;代碼能力不僅超越所有開源同類,更比肩閉源標杆Claude 4.5 Sonnet,而推理成本僅為後者的2.5%,生成速度卻提升至2倍。
為降低開發者使用門檻,小米已將MiMo-V2-Flash全部內容開源,並向SGLang開發者社區貢獻了完整推理代碼。目前,該模型的API正處於限時免費階段,用戶通過網頁端即可直接體驗其核心功能。






