加密知识一站通
行情·工具·策略

小米MiMo-V2.5系列开源:1T参数MIT许可,ClawEval上token效率压过GPT-5.4

动察 Beating 监测,小米 MiMo 团队开源 MiMo-V2.5 系列大模型,包含两款模型,均采用 MIT 许可,支持商用部署、继续训练和微调,上下文窗口均达 100 万 token。其中 MiMo-V2.5-Pro 是纯文本 MoE 模型(混合专家架构),总参数 1.02T、激活参数 420 亿;MiMo-V2.5 则是原生全模态模型,总参数 3100 亿、激活参数 150 亿,支持文本、图像、视频和音频理解。

MiMo-V2.5-Pro 主攻复杂 agent 和编程任务。在 ClawEval 评测中,V2.5-Pro 以 64% Pass^3 达到同等水平,但每条任务轨迹仅消耗约 7 万 token,比 Claude Opus 4.6、Gemini 3.1 Pro 和 GPT-5.4 少约 40% 到 60%。SWE-bench Verified 得分 78.9。官方博客展示的案例中,V2.5-Pro 在北京大学编译原理课程项目上自主实现了一个完整的 SysY 到 RISC-V 编译器,耗时 4.3 小时、672 轮工具调用,隐藏测试集满分 233/233。

MiMo-V2.5 面向多模态 agent 场景。模型配有专用视觉编码器(7.29 亿参数 ViT)和音频编码器(2.61 亿参数),在 Claw-Eval 通用子集得分 62.3。两款模型均采用滑动窗口注意力(SWA)与全局注意力(GA)混合架构,搭配 3 层多 token 预测(MTP)模块(一次预测多个 token 以加速推理)。权重已发布于 Hugging Face。

配合开源发布,MiMo 团队同步启动「Orbit 百万亿 Token 创造者激励计划」,30 天内面向全球用户免费发放总计 100 万亿 token 额度。个人开发者、团队和企业均可在活动页面提交申请,评估周期约 3 个工作日,通过后权益以 Token Plan 或赠金形式到账,可直接配合 Claude Code、Cursor 等编程工具使用。

赞(0)
未经允许不得转载:币须知道 » 小米MiMo-V2.5系列开源:1T参数MIT许可,ClawEval上token效率压过GPT-5.4

评论 抢沙发

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址