科技魔方

DeepSeek超150万模型,成最受欢迎开源大模型

DeepSeek

2025年02月24日

  本文来自于微信公众号 AIGC开放社区,作者:AIGC开放社区。

  今天凌晨3点,全球最大开源平台之一huggingface联合创始人兼首席执行官Clement Delangue发布了最新数据:

  中国开源大模型DeepSeek-R1在150万模型中,成为该平台最受欢迎的开源大模型,点赞超过1万。

  前不久,Clement还特意发文恭喜DeepSeek-R1的下载量超过1000万次,同样创造了huggingface平台有史以来最受欢迎的模型。

  看来,Clement也吃到DeepSeek的红利了,对它是真爱啊连续表扬。

  值得一提的是,R1仅用了几周的时间就超过了类ChatGPT开源鼻祖Meta发布的Llama系列,国内的开源大模型领头羊Qwen系列,以及微软开源的Phi系列,谷歌开源的Gemma系列。

  就连开源文生图模型的大黑马FLUX.1,以及该领域的领导者Stable-Diffusion系列全都没打过R1,这第一拿的实至名归,踩着众多开源高手上去的。

  有网友表示,R1的开源彻底改变了AI领域。

  本周,Deepseek表示将推出大量新功能,伙计你可来活了!

  本周我们将获得更多的开源惊喜!

  巨大的功劳归于 Deepseek,他们让开源再次出色。他们彻底改变了游戏规则,并让所有闭源模型都感到压力。

  即使像 Perplexity、Azure、AWS这样的云平台,也更倾向于使用 Deepseek,而不是他们自己的投资Sonar、OpenAI 或Anthropic 的模型。

  其实DeepSeek在开发R1之前,先开发的是纯强化学习版本R1-Zero,不依赖传统的监督微调,采用了GRPO算法。虽然训练出来性能不错,但可读性差和语言混合等都很差。

  所以,在R1-Zero基础之上训练了R1模型,一共包含4个训练阶段。

  冷启动训练阶段:与R1-Zero 不同,为了避免强化学习训练初期从基础模型开始的不稳定冷启动阶段, R1构建并收集了少量长思维链数据,对 DeepSeek-V3-Base 模型进行微调,作为初始的强化学习参与者。

  在收集数据时,研究团队探索了多种方法,例如,使用带有长思维链的少样本提示作为示例、直接促使模型生成带有反思和验证的详细答案、收集R1-Zero以可读格式输出的结果并通过人工标注后处理优化等,收集了数千条冷启动数据来微调模型。

  推理导向的强化学习阶段:主要聚焦于提升模型在编码、数学、科学和逻辑推理等推理密集型任务中的能力,这些任务通常具有明确的问题和解决方案。

  在训练过程中,发现思维链存在语言混合问题,尤其是当强化学习提示涉及多种语言时。为缓解这一问题,引入了语言一致性奖励,通过计算思维链中目标语言单词的比例来衡量。虽然消融实验表明这种调整会导致模型性能略有下降,但它符合人类偏好,提高了可读性。

  最后,将推理任务的准确性和语言一致性奖励直接相加,形成最终奖励,并对微调后的模型进行强化学习训练,直至推理任务收敛。

  拒绝采样和监督微调阶段:当推理导向的强化学习收敛后,利用得到的检查点收集监督微调数据,用于后续轮次的训练。与初始冷启动数据主要关注推理不同,

  该阶段的数据融合了其他领域的数据,以提升模型在写作、角色扮演和其他通用任务中的能力。在推理数据方面,精心策划推理提示,并通过对上述强化学习训练的检查点进行拒绝采样生成推理轨迹。

  全场景强化学习阶段:为了使R1模型更好地符合人类偏好,实施了二次强化学习阶段。该阶段主要提高模型的有用性和无害性,同时进一步优化其推理能力。

  通过结合奖励信号和多样化的提示分布来训练模型。对于推理数据,遵循R1-Zero 中使用的方法,利用基于规则的奖励在数学、代码和逻辑推理领域引导学习过程;

  对于通用数据,则采用奖励模型来捕捉复杂和微妙场景中的人类偏好。基于 DeepSeek-V3的流程,采用类似的偏好对和训练提示分布。在评估有用性时,仅关注最终总结,确保评估重点在于响应对用户的实用性和相关性,同时尽量减少对底层推理过程的干扰;

  在评估无害性时,评估模型的整个响应,包括推理过程和总结,以识别和减轻生成过程中可能出现的任何潜在风险、偏差或有害内容。

+1

来源:微信公众号 AIGC开放社区 作者:AIGC开放社区

延展资讯