每日经济新闻

    未来一年大模型的关键词是什么?小米MiMo大模型负责人罗福莉:“进化”

    2026-03-27 18:18

    罗福莉称,自己看到的更长期趋势是,随着大模型本身在飞速进步,再叠加Agent框架的加持,推理需求一定会继续迅速增长,这就将竞争带到了另一个维度,模型之外的算力、推理芯片,甚至能源层面的竞争。

    每经记者|杨卉    每经编辑|杨军    

    3月27日,2026中关村论坛年会“人工智能主题日·主题论坛”在京举办。小米MiMo大模型负责人罗福莉出现在以“OpenClaw与AI开源”为主题的圆桌论坛环节。

    罗福莉称,OpenClaw(俗称:“龙虾”)的核心价值有两点,第一是开源。从基座模型的角度看,这类框架一方面保证了基座大模型的下限,另一方面又拉伸了它的上限。第二是OpenClaw点燃了大家对Agent(智能体)层的想象力。在她看来,随着大模型及Agent框架的进步,推理需求会继续迅速增长,甚至将竞争带到模型之外的算力、推理芯片、能源层面。

    《每日经济新闻》记者注意到,被要求用一个词描述未来一年大模型发展的趋势以及自己的期待时,罗福莉选择了“进化”。

    OpenClaw最核心的价值有两点

    罗福莉穿着黑白格子衫和牛仔裤,是台上穿着最松弛的一位嘉宾。作为小米MiMo大模型负责人,她在过去数月间与团队一起发布了多款自研模型,也因AI“天才少女”、前DeepSeek研究员等身份标签备受关注。

    (图源:主办方供图)

    谈及近期大火的OpenClaw,罗福莉称,自己将其看作Agent框架层面一个非常革命性、也非常颠覆性的事件。“虽然我知道,我身边很多做深度Coding(编码)的人,第一选择可能仍然是Claude Code(Anthropic公司推出的终端AI编程助手),但我相信,只要真正用过OpenClaw,你就会很明确地感受到,这个框架在很多设计上其实是领先的。包括最近Claude Code的不少更新,在我看来,某种程度上也是在向OpenClaw靠近。”罗福莉称。

    以自己的使用体验为例,罗福莉谈到,OpenClaw最核心的价值有两点。第一是开源。她进一步称,如OpenClaw、Claude Code这样的框架,很大的价值在于将国内那些还没有完全逼近闭源模型、但已经位于开源模型赛道前列的模型,上限显著拉高了。从基座模型的角度看,这类框架一方面保证了基座大模型的下限,另一方面又拉伸了它的上限。第二是“除此之外,我觉得它给整个社区带来的另一个重要价值,是点燃了大家对于Agent层的想象力。”罗福莉称。

    把推理成本打来 ,把速度提上去

    被问及“小米做大模型的独特优势”时,罗福莉笑着将问题退了回去。“我想先把‘小米做大模型有什么独特优势’这个问题放一放。我更想谈的,其实是中国大模型团队在做基座模型这件事上的整体优势,因为我觉得这个话题更有普遍价值。”

    据罗福莉介绍,大概从两年前开始,她就已经看到,中国的基座模型团队在这个方向上出现了非常重要的突破:在有限算力,尤其是在NVLink(由英伟达开发的一种‌高速、低延迟的芯片间互连技术)互联带宽受限的情况下,该如何突破这些硬件条件带来的限制,做一些看起来像是在为效率妥协、但本质上却是模型结构创新的工作,如 DeepSeek V2、V3系列中的细粒度MoE和MLA等。

    “后来我们看到,这类创新其实带来了一场真正的变化。”在她看来,DeepSeek的出现,给了国内所有基座模型团队很大的勇气和信心。包括DeepSeek的相关探索,Kimi的相关方案,以及小米面向下一代模型结构所做的一些研究,都指向同一个问题:进入Agent时代之后,模型结构到底应该如何进一步演化。

    “刚才我们一直在讨论OpenClaw。只要你真正用过就会发现,它往往是越用越好用,越用越聪明。而它成立的一个前提,就是推理阶段必须拥有足够长的context(上下文)。”

    罗福莉直言,Long context (长上下文)其实已经是一个被讨论了很久的话题,但直到今天,大家才真正开始意识到,不是模型做不到百万级甚至千万级上下文,而是如果推理成本太高、速度太慢,这件事就没有现实价值。

    “所以,真正关键的问题是,能不能在100万甚至1000万级context的情况下,把推理成本打下来,把速度提上去。”在她看来,只有在这种前提下,用户才会愿意把真正具有高生产力价值的任务交给模型,模型也才有机会在长上下文环境中完成更高复杂度的任务。甚至可以说,只有到了1000万级、上亿级上下文的阶段,才可能真正看到模型的自我迭代能力被释放出来。

    “我们现在也在思考,怎样构造更有效的学习算法;怎样采集在100万、1000万、甚至更长上下文里,真正具有长期依赖关系的文本;以及怎样结合复杂环境,生成高质量的轨迹数据。这些,都是我们正在持续推进的事情。”

    罗福莉称,自己看到的更长期趋势是,随着大模型本身在飞速进步,再叠加Agent框架的加持,推理需求一定会继续迅速增长,这就将竞争带到了另一个维度,模型之外的算力、推理芯片,甚至能源层面的竞争。

    “自进化”已具备比较可行的实现路径

    被要求用一个词描述未来一年大模型发展的趋势以及自己的期待时,罗福莉选择了“进化”。同时,她对一年这个时间节点也表示了赞同。“我觉得,把这个问题收缩到一年的尺度非常有意义。如果把时间拉到5年,在我对AGI的理解里,很多事情几乎已经是必然会发生的了。”

    在她看来,虽然“进化”听起来有点抽象,但她最近对这个词有了更具体、也更务实的理解,也于近期真正开始感受到,“自进化”其实已经具备比较可行的实现路径。她表示,随着模型能力增强,在过去单纯对话式的范式下,预训练模型的上限其实并没有被真正发挥出来。而今天,这个上限正在被Agent框架逐步激活。

    “我们现在已经摸到这个边界了。”罗福莉称,如果这种“自进化”机制可以持续运转,潜力将会非常大。“现在其实很多国内模型已经能够稳定跑上一到两天了。当然,这和任务难度有关。”她提到,在一些确定性较强的任务上,模型已经能自主优化并持续执行两三天。

    在罗福莉看来,“自进化”是一个真正可能创造新东西的方向,不是简单地替代人类已有的生产力,而是像顶尖科学家一样,去探索世界上原本还不存在的东西。一年前,她觉得这个过程大概要三到五年;但到了最近,反而觉得这个时间窗口应该缩短到一到两年。“我们可能很快就能看到,在一个很强的自进化Agent框架加持下,大模型对科学研究带来至少指数级的加速。期待这种范式未来能够辐射到更广泛的学科和领域。"

    分享结束后,人群涌向罗福莉,她在会议主办方的引导下快速走向会场外,并以后续“有事”为由婉拒了采访诉求,但仍有追逐者一直跟随。一位志愿者向前对她表达了感谢,提及此前在网络上受到罗福莉的文章的启发,罗福莉做了个握拳的动作,还对这名志愿者说:“加油”。

    (每经记者李少婷对本文亦有贡献)



    版权声明

    1本文为《每日经济新闻》原创作品。

    2 未经《每日经济新闻》授权,不得以任何方式加以使用,包括但不限于转载、摘编、复制或建立镜像等,违者必究。

    上一篇

    阿特斯:截至目前,公司维持有效专利超2000项

    下一篇

    伊朗革命卫队称霍尔木兹海峡已处于关闭状态



    分享成功
    每日经济新闻客户端
    一款点开就不想离开的财经APP 免费下载体验