每日经济新闻

    DeepSeek,大动作!

    每日经济新闻 2025-03-25 07:50

    3月24日晚,DeepSeek发布模型更新DeepSeek-V3-0324,开源版本已上线。此前DeepSeek-V3模型以高性价比著称,多项评测成绩超越其他开源模型。V3是6710亿参数的专家混合模型,为解决负载不均衡问题,采用辅助损失免费的负载均衡策略和节点受限的路由机制,有效提升了性能。最新测试显示,其代码能力比肩思维链版本。

    每经编辑 毕陆名

    3月24日晚,DeepSeek发布了模型更新——DeepSeek-V3-0324。本次更新为DeepSeek V3模型的版本更新,并非市场此前一直期待的DeepSeek-V4或R2。目前,其开源版本已上线Hugging Face。据悉,其开源版本模型体积为6850亿参数。

    同日,DeepSeek在其官方交流群宣布称,DeepSeek V3模型已完成小版本升级,欢迎前往官方网页、App、小程序试用体验(关闭深度思考),API接口和使用方式保持不变。

    此前于2024年12月发布的DeepSeek-V3模型曾以“557.6万美金比肩Claude 3.5效果”的高性价比著称,其多项评测成绩超越了Qwen2.5-72B和Llama-3.1-405B等其他开源模型,并在性能上和世界顶尖的闭源模型GPT-4o以及Claude-3.5-Sonnet不分伯仲。但截至目前,还没有任何关于新版DeepSeek-V3的能力基准测试榜单出现。

    其后,DeepSeek于2025年1月发布了性能比肩OpenAI o1正式版的DeepSeek-R1模型,该模型在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大提升了模型推理能力。

    V3是一个拥有6710亿参数的专家混合模型(Moe),其中370亿参数处于激活状态。

    在传统的大模型中,通常会采用密集的神经网络结构,模型需要对每一个输入token都会被激活并参与计算,会耗费大量算力。

    此外,传统的混合专家模型中,不平衡的专家负载是一个很大难题。当负载不均衡时,会引发路由崩溃现象,这就好比交通拥堵时道路瘫痪一样,数据在模型中的传递受到阻碍,导致计算效率大幅下降。

    为了解决这个问题,常规的做法是依赖辅助损失来平衡负载。然而,这种方法存在一个弊端,那就是辅助损失一旦设置过大,就会对模型性能产生负面影响,就像为了疏通交通而设置过多限制,却影响了整体的通行效率。

    DeepSeek对V3进行了大胆创新,提出了辅助损失免费的负载均衡策略,引入“偏差项”。在模型训练过程中,每个专家都被赋予了一个偏差项,它会被添加到相应的亲和力分数上,以此来决定top-K路由。

    此外,V3还采用了节点受限的路由机制,以限制通信成本。在大规模分布式训练中,跨节点的通信开销是一个重要的性能瓶颈。通过确保每个输入最多只能被发送到预设数量的节点上,V3能够显著减少跨节点通信的流量,从而提高训练效率。

    根据国外开源评测平台kcores-llm-arena对V3-0324最新测试数据显示,其代码能力达到了328.3分,超过了普通版的Claude 3.7 Sonnet(322.3),可以比肩334.8分的思维链版本。

    每日经济新闻综合公开信息

    免责声明:本文内容与数据仅供参考,不构成投资建议,使用前请核实。据此操作,风险自担。

    封面图片来源:每日经济新闻

    版权声明

    1本文为《每日经济新闻》原创作品。

    2 未经《每日经济新闻》授权,不得以任何方式加以使用,包括但不限于转载、摘编、复制或建立镜像等,违者必究。

    上一篇

    华泰证券:消费板块市场信心有望进一步提振,优选四大投资主线

    下一篇

    华泰证券:白酒进入良性修复期,看好短期基本面表现突出,长期具备业绩韧性/有望穿越周期的头部酒企



    分享成功
    每日经济新闻客户端
    一款点开就不想离开的财经APP 免费下载体验