跳转至内容
  • 0 赞同
    1 帖子
    18 浏览
    R
    小米 MiMo 4 月 28 日推出 Xiaomi MiMo Orbit 百万亿 Token 创造者激励计划,宣布在 30 天内(北京时间 2026 年 4 月 28 日 00:00 至 5 月 28 日 00:00)面向全球高质量、AI 驱动的用户免费定向发放总计 100 万亿 Token 权益,赠完即止。计划面向全球开放,个人开发者、团队、企业均可申请:在活动页提交表单后等待约 3 个工作日的评估,通过后将收到邮件通知,使用表单填写的邮箱登录或注册 MiMo API 开放平台,权益于 24 小时内到账。 权益有两种形式:开放平台订阅制 Token Plan(可直接配置到 Claude Code、Cursor、OpenClaw 等主流编程工具中调用 MiMo 系列模型),或可用于按量计费 API 调用的账户赠金,具体额度与档位由表单内容综合评估决定,官方明示"填写越详细、项目越具体,评估通过率和权益档位越高"。该激励计划与同期发布的 MiMo-V2.5 系列模型(旗舰推理 V2.5-Pro、多模态 V2.5、TTS 系列与 ASR)配套推出,构成"模型 + 算力赠送"的完整组合,既为开放平台导入早期高质量用户、也为新模型的真实场景使用积累反馈数据。 Xiaomi MiMo Orbit | MiMo API 开放平台 | MiMo Studio https://100t.xiaomimimo.com/ https://platform.xiaomimimo.com/ https://aistudio.xiaomimimo.com/
  • 0 赞同
    1 帖子
    6 浏览
    R
    小米 MiMo 团队 4 月 22 日发布并即将开源 MiMo-V2.5 系列模型,覆盖 V2.5(310B 总参数 / 15B 激活)与 V2.5-Pro(1.02T 总参数 / 42B 激活)两档稀疏 MoE 架构,原生支持文本、图像、视频、音频四模态,最长上下文 1M token。模型基于 MiMo-V2-Flash 主干扩展专属视觉编码器(729M 参数 ViT,28 层中 24 层 SWA + 4 层全注意力)与音频编码器(261M 参数,从 MiMo-Audio 权重初始化),保留 Hybrid Attention 5:1 比例与 128 滑动窗口设计——KV 缓存较常规模型缩减近 6 倍。预训练总量约 48T token、采用 FP8 混合精度,Post-train 阶段上下文从 32K 渐进扩展至 1M,并引入 SFT、大规模 Agentic RL 与 Multi-Teacher On-Policy Distillation(MOPD)训练。MiMo-V2.5-Pro 已在 API 平台、AI Studio 等界面全量上线,价格不变,模型 tag 替换为 mimo-v2.5-pro 即可调用。 实测层面,团队公开三项长程任务结果以演示 V2.5-Pro 的"线束感知"能力:在北京大学《编译原理》课设的 SysY 编译器 Rust 实现任务中(人类 PKU CS 学生通常需数周完成),模型用 4.3 小时、672 次工具调用从零完成全部六层(词法/语法分析、AST、Koopa IR、RISC-V 后端、性能优化),通过课程隐藏测试集 233/233 满分;冷启动首次编译即过 137 项(59%),第 512 轮重构回退两项后自主诊断恢复。第二项任务从几句简短 prompt 出发,经 11.5 小时、1,868 次工具调用,端到端生成 8,192 行代码的桌面视频编辑器,含多轨时间线、剪辑、交叉淡入、音频混合与导出。第三项则将 V2.5-Pro 接入 ngspice 仿真闭环(以 Claude Code 作为线束),约 1 小时内为 TSMC 180nm 工艺设计并优化 FVF-LDO 模拟电路,相位裕度等四项指标较初稿提升一个数量级。在 ClawEval 上,V2.5-Pro 以约 70K token/轨迹达到 64% Pass^3,token 消耗较 Claude Opus 4.6、Gemini 3.1 Pro、GPT-5.4 同档分别低 40%–60%。 Xiaomi MiMo | HuggingFace | 小米 MiMo API 平台 https://mimo.xiaomi.com/mimo-v2-5-pro/ https://huggingface.co/XiaomiMiMo/MiMo-V2.5 https://platform.xiaomimimo.com/docs/zh-CN/news/v2.5-open-sourced
  • 0 赞同
    1 帖子
    16 浏览
    R
    财经播客《张小珺商业访谈录》4 月 24 日发布时长 3 小时 37 分的第 138 期,嘉宾为小米大模型团队负责人、MiMo-V2 系列主导研究员罗福莉——前供职阿里达摩院与 DeepSeek,这是她的首次公开访谈。罗福莉以春节期间使用 OpenClaw 的三天亲历为主线,描述了一次彻底改变她对 AI 范式判断的体验:第一天凌晨两点装好、用到天亮,感受到框架"有灵魂"——每轮对话前拼入当前时间、精心编排 Context,让模型主动提醒她早点睡觉;第二天她开始把"框架做不成的日常任务"交给它,从激发团队好奇心到整个组织架构设计,它都能形成体系化输出并沉淀为 Skill;第三天她尝试把研究任务交给它——构建一个多轮交互的 User Agent 用于 Post-train 数据合成,原本预计需要相当长时间,结果一两个小时就做出来了。“三天,它每天都给我额外的惊喜”,罗福莉称。此后她用强制要求团队"第二天 OpenClaw 对话次数不超过 100 轮可以 Quit"的方式推动团队密集使用,尽管她从未打算真正考核,但两天内团队群消息 10 分钟不看就 99+,大家开始自驱思考怎么让模型与框架互相进化。 基于这段体验,罗福莉给出了她对当前 AI 竞争格局的几个核心判断:Anthropic 的路径是正确的,已是国内业界共识;大模型竞争进入"第二幕",从预训练主导的 Chat 时代转向后训练(Post-training)主导的 Agent 时代,做到接近 Claude Opus 4.6 水准的入场券是 1T 以上参数量的基座模型;算力分配比应从 Chat 时代的研究:预训练:后训练 = 3:悬殊:1,调整为约 3:1:1,预训练与后训练用卡比将趋向 1:1,“顶尖团队应该都是 1:1 了”;国内在预训练层面的代差已基本消除,接下来两三个月将是考验团队研究水平与技术敏捷程度的关键窗口。组织层面,罗福莉在小米团队推行无职级、无固定分组的平权管理——“任何层级都是对创造力的规范和约束”——100 人团队中真正投入当代模型迭代的不超过二三十人,她预计 2 年内 AGI 将实质性到来,届时大多数人的工作模式将被颠覆。 Bilibili | Apple Podcasts | 小宇宙 https://podcasts.apple.com/cn/podcast/138-对罗福莉3-5小时访谈-ai范式已然巨变-openclaw-agent范式很吃后训练-卡的分配-组织平权/id1634356920?i=1000763358624