每经记者 可杨 每经编辑 魏官红
2月23日,清华大学与瑞莱智慧联合团队(以下简称“清华瑞莱联合团队”)推出大语言模型RealSafe-R1。据悉,该模型基于DeepSeek R1进行深度优化与后训练,在确保性能稳定的基础上,实现了安全性的显著提升。
瑞莱智慧方面表示,连日来,国产开源大模型DeepSeek的优异表现令人惊艳,其在自然语言处理和多任务推理方面的能力展现了强大的技术实力,尤其是在复杂问题解决和创造性任务中表现出色。然而,DeepSeek R1和V3在面对“越狱攻击”等安全性挑战时仍存在一定的局限性。例如,模型可能会被恶意设计的输入误导,生成不符合预期或不安全的响应。这一安全短板并非DeepSeek所独有的难题,而是当前开源大模型的通病,其根本缺陷源于安全对齐机制的深度不足。
为此,清华瑞莱联合团队提出了基于模型自我提升的安全对齐方式,将安全对齐与内省推理相结合,使大语言模型能够通过具有安全意识的思维链分析来检查潜在风险,实现基础模型自身能力的自主进化,可以应用于多种开源、闭源模型。
基于该方法,清华瑞莱联合团队对DeepSeek-R1系列模型进行后训练,正式推出RealSafe-R1系列大模型。据悉,RealSafe-R1各尺寸模型及数据集,将于近期向全球开发者开源。瑞莱智慧首席执行官田天表示,大模型的安全性瓶颈是本质的,只有通过持续投入和攻坚补齐短板弱项,人工智能产业才能真正实现高质量发展。
1本文为《每日经济新闻》原创作品。
2 未经《每日经济新闻》授权,不得以任何方式加以使用,包括但不限于转载、摘编、复制或建立镜像等,违者必究。