DeepSeek-R1:通过强化学习激励大语言模型的推理能力

server/2025/2/27 0:44:13/

摘要

本文介绍了我们的第一代推理模型,DeepSeek-R1-Zero 和 DeepSeek-R1。DeepSeek-R1-Zero 是通过大规 模强化学习(RL)训练的模型,在没有使用监督微调(SFT)这个前置步骤的情况下,展示了卓越的推 理能力。通过强化学习,DeepSeek-R1-Zero 自然而然的展现出了许多强大而有趣的推理行为。然而,它 也面临一些挑战,如可读性差和多语言混合等问题。为了解决这些问题并进一步提高推理性能,我们引 入了 DeepSeek-R1,该模型在强化学习之前结合了多阶段训练和冷启动数据。DeepSeek-R1 在推理任务 中的表现与 OpenAI-o1-1217 相当。为了支持研究社区,我们开源了 DeepSeek-R1-Zero、DeepSeek-R1 以 及六个稠密模型(1.5B、7B、8B、14B、32B、70B),这六个稠密模型是使用 DeepSeek-R1 对 Qwen 和 Llama 蒸馏而来。

1 简介

          近年来,大语言模型(LLMs)正在经历快速的迭代和进化,并正在逼近通用人工智能(AGI)。 最近,后训练已成为完整训练流程中的一个重要组成部分。研究表明,它可以提高推理任务的准确 性,与社会价值观保持对齐,并适应用户偏好,同时相较于预训练所需的计算资源相对较少。在推理能 力方面,OpenAI 的 o1 系列模型通过增加思维链推理过程的长度,首次引入了推理时扩展的方法。这种 方法在数学、编程和科学推理等多种推理任务中,取得了显著的进步。然而,有效的测试时扩展仍然是 社区面临的一个未解问题。之前的一些研究探索了各种方法,包括基于过程的奖励模型、强化学习,以 及蒙特卡罗树搜索和束搜索等搜索算法。

       然而,这些方法都未能实现与 OpenAI 的 o1 系列模型相当的通 用推理性能。

       在本文中,我们迈出了提升语言模型推理能力的第一步,也就是采用纯粹的强化学习。我们的目标 是探索大语言模型在没有任何监督数据的情况下发展推理能力的潜力,重点关注它们通过纯粹的强化学 习过程的自我进化。具体而言,我们使用 DeepSeek-V3-Base 作为基础模型,并采用 GRPO 作为强化学习 框架,以提高模型在推理方面的性能。在训练过程中,DeepSeek-R1-Zero 自然而然的展现出了许多强大 而有趣的推理行为。经过数千步的强化学习训练,DeepSeek-R1-Zero 在推理基准测试中表现出色。例如, AIME 2024 的 pass@1 分数从 15.6% 提高到 71.0%,并且通过多数投票,分数进一步提升至 86.7%,与 OpenAI-o1-0912 的表现相匹配。

       然而,DeepSeek-R1-Zero 也面临一些挑战,如可读性差和多语言混合。为了解决这些问题并进一步 提高推理性能,我们引入了 DeepSeek-R1,该模型结合了少量冷启动数据和多阶段训练流程。具体而言, 我们首先收集数千条冷启动数据,用来微调 DeepSeek-V3-Base 模型。随后,我们进行以推理为导向的强 化学习,类似于 DeepSeek-R1-Zero。在强化学习过程接近收敛时,我们通过对强化学习训练得到的检查 点进行拒绝采样来创建新的监督微调(SFT)数据,并结合来自 DeepSeek-V3 的监督数据,这些数据涉及 写作、事实问答和自我认知等领域,然后重新训练 DeepSeek-V3-Base 模型。在使用新数据对模型进行微 调后,将所有场景的提示词考虑进来,对检查点进行额外的强化学习训练。经过这些步骤,我们获得了 一个称为 DeepSeek-R1 的检查点,其性能与 OpenAI-o1-1217 相当。

        我们进一步探索从 DeepSeek-R1 到更小的稠密模型的蒸馏。以 Qwen2.5-32B 作为基础模型,直接使 用 DeepSeek-R1 对 Qwen2.5-32B 进行蒸馏的效果优于使用强化学习对 Qwen2.5-32B 进行训练的效果。这 表明,大型基础模型(DeepSeek-R1)所发现的推理模式对于提高推理能力至关重要。我们已经将蒸馏后 的 Qwen 和 Llama 系列开源。值得注意的是,我们的 14B 蒸馏模型在推理基准测试中大幅超越了最先进 的开源模型 QwQ-32B-Preview ,而蒸馏后的 32B 和 70B 模型则在稠密模型中的推理基准测试中创下了新 纪录。

1.1 贡献

后训练:对基础模型进行大规模强化学习

•  我们直接使用强化学习对基础模型进行训练,而不依赖于监督微调(SFT)作为前置步骤。这种方法 使模型能够探索思维链(CoT)以解决复杂问题,从而发展出了 DeepSeek-R1-Zero。DeepSeek-R1-Zero 展现了自我验证、反思和生成长思维链的能力,标志着研究社区的一个重要里程碑。值得注意的是, 在公开发表的研究中,我们首次验证了大语言模型的推理能力可以仅通过强化学习来激励,而无需 使用监督微调这一手段。这一突破为大语言模型领域未来的进展铺平了道路。

•  我们介绍了开发 DeepSeek-R1 的流程。该流程包含两个强化学习阶段,旨在发现改进的推理模式并 与人类偏好对齐,以及两个监督微调(SFT)阶段,作为模型推理和非推理能力的基础。我们相信, 这一流程将通过创造更好的模型来惠及行业。

蒸馏:小模型也可以很强大  

• 我们证明了大型模型的推理模式可以蒸馏到更小的模型中,从而在性能上优于通过强化学习发现的 小模型的推理模式。开源的 DeepSeek-R1 及其 API 将使研究社区在未来能够蒸馏出更优秀的小模 型。 • 利用 DeepSeek-R1 生成的推理数据,我们对多个在研究社区广泛使用的稠密模型进行了微调。评估 结果表明,蒸馏后的较小稠密模型在基准测试中表现优异。DeepSeek-R1-Distill-Qwen-7B 在 AIME 2024 中达到了 55.5%,超越了 QwQ-32B-Preview。此外,DeepSeek-R1-Distill-Qwen-32B 在 AIME 2024 中得分 72.6%,在 MATH-500 中得分 94.3%,在 LiveCodeBench 中得分 57.2%。这些结果显著优于 之前的开源模型,并与 o1-mini 相当。我们将基于 Qwen2.5 和 Llama3 系列的 1.5B、7B、8B、14B、 32B 和 70B 检查点开源给社区。

1.2 评估结果总结

• 推理任务:

(1)DeepSeek-R1 在 AIME 2024 中达到了 79.8% 的 Pass@1 分数,稍微超过了 OpenAIo1-1217。在 MATH-500 中,它取得了令人印象深刻的 97.3% 分数,表现与 OpenAI-o1-1217 相当, 并显著优于其他模型。

(2)在与编程相关的任务中,DeepSeek-R1 在代码竞赛任务中表现出专家水 平,获得了 2,029 的 Elo 评级,超过了 96.3% 的人类参与者。在工程相关任务中,DeepSeek-R1 的 表现略优于 DeepSeek-V3,这可能会在实际任务中帮助开发者。

• 知识:在 MMLU、MMLU-Pro 和 GPQA Diamond 等基准测试中,DeepSeek-R1 取得了优秀的结果,得 分分别为 90.8%(MMLU)、84.0%(MMLU-Pro)和 71.5%(GPQA Diamond),显著超越了 DeepSeek-V3。 尽管在这些基准测试中的表现略低于 OpenAI-o1-1217,DeepSeek-R1 仍然超过了其他闭源模型,展 示了其在教育任务中的竞争优势。在事实基准测试 SimpleQA 中,DeepSeek-R1 超越了 DeepSeek-V3, 证明了其处理基于事实查询的能力。在这个基准测试中,OpenAI-o1 也超过了 4o,呈现出类似的趋 势。

• 其它:DeepSeek-R1 在多种任务中表现出色,包括创意写作、一般问答、编辑、摘要等。它在 AlpacaEval 2.0 上取得了 87.6% 的长度控制胜率,在 ArenaHard 上的胜率为 92.3%,展示了其智能处理非考试 导向查询的强大能力。此外,DeepSeek-R1 在需要长上下文理解的任务中表现优异,显著超越了 DeepSeek-V3 在长上下文基准测试中的表现。

2 方法

2.1 概述

        以往的研究在很大程度上依赖于大量的监督数据来提升模型性能。在本研究中,我们证明了即使不 使用监督微调(SFT)作为冷启动,推理能力也可以通过大规模的强化学习显著提高。此外,通过加入少 量的冷启动数据,性能还可以进一步提升。在接下来的部分中,我们将介绍:(1)DeepSeek-R1-Zero,它 直接将强化学习应用于基础模型,而不使用任何监督微调数据;(2)DeepSeek-R1,它从一个经过数千个 思维链(CoT)示例微调的检查点开始应用强化学习;(3)将 DeepSeek-R1 的推理能力蒸馏到小型密集模 型中。

2.2 DeepSeek-R1-Zero:在基础模型上进行强化学习

       强化学习在推理任务中显示出了显著的有效性,这在我们之前的研究中得到了证明。然而,这些研 究在很大程度上依赖于监督数据,而收集这些数据耗时较长。在本节中,我们探讨了大语言模型在没有 任何监督数据的情况下发展推理能力的潜力,重点关注它们通过纯粹的强化学习过程的自我进化。我们将首先简要概述我们的强化学习算法,然后展示一些令人兴奋的结果,希望这能为社区提供有价值的见 解。

2.2.1 强化学习算法

 

2.2.2 奖励模型

     奖励是训练信号的来源,决定了强化学习的优化方向。为了训练 DeepSeek-R1-Zero,我们采用了一 种基于规则的奖励系统,主要由两种类型的奖励组成:

• 准确性奖励:准确性奖励模型评估响应是否正确。例如,对于具有确定性结果的数学问题,模型需 要以指定格式(例如,放在框内)提供最终答案,从而实现可靠的基于规则的正确性验证。类似地, 对于 LeetCode 问题,可以使用编译器根据预定义的测试用例生成反馈。

• 格式奖励:除了准确性奖励模型,我们还采用格式奖励模型,要求模型将其思考过程放在 ‘’ 和 ‘’ 标签之间。

      在开发 DeepSeek-R1-Zero 时,我们没有应用结果或过程神经奖励模型,因为我们发现神经奖励模型 在大规模强化学习过程中可能会遭遇奖励黑客问题,并且重新训练奖励模型需要额外的训练资源,这使 整个训练流程变得更加复杂。

2.2.3 训练模板

       为了训练 DeepSeek-R1-Zero,我们首先设计了一个简单的模板,指导基础模型遵循我们指定的指令。 如表 1 所示,该模板要求 DeepSeek-R1-Zero 首先生成推理过程,然后给出最终答案。我们故意将约束限 制在这种结构格式上,避免任何内容特定的偏见——例如,强制要求反思性推理或推广特定的解决问题 策略——以确保我们能够准确观察模型在强化学习过程中的自然进展。

2.2.4 性能,自我进化过程和 DeepSeek-R1-Zero 的“顿悟”时刻 DeepSeek-R1-Zero 的性能

       图 2 展示了 DeepSeek-R1-Zero 在 AIME 2024 基准测试中整个强化学习训练过 程中的性能轨迹。如图所示,随着强化学习训练的推进,DeepSeek-R1-Zero 的性能稳步而持续地提升。值 得注意的是,AIME 2024 上的平均 pass@1 分数显著增加,从最初的 15.6% 跃升至令人印象深刻的 71.0%, 达到了与 OpenAI-o1-0912 相当的性能水平。这一显著的改进突显了我们强化学习算法在优化模型性能方 面的有效性。 表 2 提供了 DeepSeek-R1-Zero 与 OpenAI 的 o1-0912 模型在各种推理相关基准测试中的比较分析。 研究结果显示,强化学习使 DeepSeek-R1-Zero 能够在没有任何监督微调数据的情况下获得强大的推理能 力。这是一个值得注意的成就,因为它强调了模型仅通过强化学习就能有效学习和泛化的能力。此外,通 过使用多数投票,DeepSeek-R1-Zero 的性能可以进一步增强。例如,当在 AIME 基准上使用多数投票时, DeepSeek-R1-Zero 的性能从 71.0% 提升至 86.7%,从而超越了 OpenAI-o1-0912 的性能。DeepSeek-R1-Zero 在有无多数投票的情况下都能实现如此具有竞争力的性能,突显了其强大的基础能力以及在推理任务中 进一步发展的潜力。

DeepSeek-R1-Zero 的自我进化过程 DeepSeek-R1-Zero 的自我进化过程是一个引人入胜的示例,展示了 强化学习如何驱动模型自主提升其推理能力。通过直接从基础模型启动强化学习,我们可以在没有监督微调阶段影响的情况下,密切监控模型的进展。这种方法清晰地展示了模型随时间演变的过程,特别是 在处理复杂推理任务的能力方面。

       如图 3 所示,DeepSeek-R1-Zero 的思考时间在整个训练过程中持续改善。这种改善并不是外部调整 的结果,而是模型内部的内在发展。通过利用延长的测试时间计算,DeepSeek-R1-Zero 自然获得了解决 日益复杂的推理任务的能力。这种计算范围从生成数百到数千个推理标记,使模型能够更深入地探索和 完善其思考过程。

       这一自我进化过程中最显著的一个方面是,随着测试时间计算的增加,复杂行为的出现。例如,反思 行为——模型重新审视和重新评估其之前的步骤——以及探索替代问题解决方法的能力自发地产生。这 些行为并不是显式编程的,而是模型与强化学习环境互动的结果。这种自发的发展显著增强了 DeepSeekR1-Zero 的推理能力,使其能够更高效、更准确地应对更具挑战性的任务。  

DeepSeek-R1-Zero 的“顿悟”时刻 在 DeepSeek-R1-Zero 的训练过程中观察到的一个特别引人入胜的现象 是“顿悟”时刻的出现。如表 3 所示,这一时刻发生在模型的一个中间版本中。在这一阶段,DeepSeek-R1- Zero 学会通过重新评估其初始方法来为问题分配更多的思考时间。这种行为不仅证明了模型推理能力的 提升,也是强化学习如何导致意想不到且复杂结果的迷人示例。

       这一时刻不仅是模型的“顿悟”时刻,也是观察其行为的研究人员的“顿悟”时刻。它突显了强化学习的 力量和美妙:我们并不是明确教导模型如何解决问题,而是简单地为其提供正确的激励,模型便能自主 发展出先进的问题解决策略。“顿悟”时刻强有力地提醒我们,强化学习有潜力在人工系统中开启新的智能 水平,为未来更自主和适应性强的模型铺平道路。

DeepSeek-R1-Zero 的缺陷   尽管 DeepSeek-R1-Zero 展示了强大的推理能力,并自主发展出意想不到且强 大的推理行为,但它仍面临一些问题。例如,DeepSeek-R1-Zero 在可读性差和多语言混合等挑战上存在 困难。为了使推理过程更加可读并与开放社区分享,我们探索了 DeepSeek-R1,这是一种利用人类友好的 冷启动数据的强化学习方法。 

2.3 DeepSeek-R1:带冷启动的强化学习

       受到 DeepSeek-R1-Zero 令人鼓舞的结果启发,产生了两个自然的问题:

1. 是否可以通过引入少量高质量数据作为冷启动,进一步提高推理性能或加速收敛?

2. 我们如何训练一个用户友好的模型,使其不仅能生成清晰连贯的思维链(CoT),还能够展现出强大 的通用能力? 为了解决这些问题,我们设计了一个训练 DeepSeek-R1 的流程。该流程由四个阶段组成,具体如下。

2.3.1 冷启动

       与 DeepSeek-R1-Zero 不同,为了防止基础模型在强化学习训练的早期处于不稳定的冷启动阶段,对 于 DeepSeek-R1,我们构建并收集了一小部分思维链(CoT)数据,来把模型微调成最初的强化学习演员。

       为了收集这些数据,我们探索了几种方法:使用长思维链推理作为示例的少量提示,直接提示模型 生成详细的答案并进行反思和验证,以人类可读的格式来收集 DeepSeek-R1-Zero 的输出,以及通过人工 标注者对结果进行后处理和精炼。 

 在这项工作中,我们收集了数千条冷启动数据,将 DeepSeek-V3-Base 微调成强化学习的起点。与 DeepSeek-R1-Zero 相比,冷启动数据的优势包括:

• 可读性:DeepSeek-R1-Zero 的一个主要限制是其内容通常不适合人类阅读。响应可能混合多种语言, 或者缺乏 markdown 格式来突出显示用户的答案。相比之下,在为 DeepSeek-R1 创建冷启动数据时, 我们设计了一种可读的模式,包括每个响应末尾的摘要,并过滤掉不适合阅读的响应。在这里,我 们将输出格式定义为 |special_token||special_token|,其中推理过程是 针对查询的思维链(CoT),摘要用于总结推理结果。

• 潜力:通过精心设计带有人类先验的冷启动数据模式,我们观察到相较于 DeepSeek-R1-Zero 更好的 性能。我们相信,迭代训练是推理模型更好的方法。

2.3.2 推理导向的强化学习

      在使用冷启动数据对 DeepSeek-V3-Base 进行微调后,我们应用与 DeepSeek-R1-Zero 模型相同的大规 模强化学习训练过程。此阶段重点提升模型的推理能力,特别是在编码、数学、科学和逻辑推理等推理密 集型任务中,这些任务涉及明确定义的问题和清晰的解决方案。在训练过程中,我们观察到思维链(CoT) 常常表现出多种语言的混合,尤其是在强化学习提示涉及多种语言时。为了缓解语言混合的问题,我们 在强化学习训练中引入了语言一致性奖励,该奖励计算思维链中目标语言单词的比例。尽管消融实验表 明,这种对齐会导致模型性能的轻微下降,但该奖励与人类偏好一致,使其更具可读性。最后,我们通过 直接相加推理任务的准确性和语言一致性奖励来形成最终奖励。然后,我们在微调后的模型上进行强化 学习训练,直到其在推理任务上达到收敛。

2.3.3 拒绝采样和监督微调

      当面向推理的强化学习收敛时,我们利用生成的检查点收集后续轮次的监督微调(SFT)数据。与最 初主要关注推理的冷启动数据不同,此阶段纳入了来自其他领域的数据,以增强模型在写作、角色扮演 和其他通用任务中的能力。具体而言,我们生成数据并按以下方式微调模型。

推理数据 我们策划推理提示,并通过对上述强化学习训练的检查点进行拒绝采样来生成推理轨迹。在前 一个阶段,我们只包含了可以通过基于规则的奖励进行评估的数据。然而,在这一阶段,我们通过纳入额 外的数据来扩展数据集,其中一些数据使用生成奖励模型,通过将真实答案和模型预测输入 DeepSeek-V3 进行判断。

       此外,由于模型输出有时混乱且难以阅读,我们过滤掉了包含混合语言、长段落和代码块的链推理。 对于每个提示,我们采样多个响应,仅保留正确的响应。总共,我们收集了大约 60 万个与推理相关的训 练样本。

无推理数据 对于非推理类数据,例如写作、事实问答、自我认知和翻译,我们采用 DeepSeek-V3 的流 程,并复用部分 DeepSeek-V3 的监督微调数据集。对于某些非推理任务,我们会调用 DeepSeek-V3 生成 潜在的思维链,然后再通过提示回答问题。然而,对于较简单的查询,例如“你好”,我们不会在响应中提 供思维链。

最终,我们收集了大约 20 万个与推理无关的训练样本。

我们使用上述约 80 万个样本的数据集对 DeepSeek-V3-Base 进行了两个周期的微调。 

2.3.4 针对所有场景的强化学习

      为了进一步使模型与人类偏好对齐,我们实施了第二阶段的强化学习,旨在提高模型的有用性和无 害性,同时增强其推理能力。具体来说,我们结合奖励信号和多样化的提示分布来训练模型。

      对于推理类数据,我们遵循了 DeepSeek-R1-Zero 中概述的方法,该方法利用基于规则的奖励来指导 数学、代码和逻辑推理领域的学习过程。

       对于通用数据,我们采用奖励模型来捕捉复杂和微妙场景中的人类偏好。我们在 DeepSeek-V3 流程 的基础上,采用了类似的偏好对和训练提示分布。在有用性方面,我们专注于最终总结,确保评估强调 响应对用户的实用性和相关性,同时尽量减少对底层推理过程的干扰。在无害性方面,我们评估模型的 整个响应,包括推理过程和总结,以识别并减轻生成过程中可能出现的任何潜在风险、偏见或有害内容。

      最终,通过整合奖励信号和多样化的数据分布,我们能够训练出一个在推理方面表现出色,同时优 先考虑有用性和无害性的模型。  

2.4 蒸馏:为小模型赋能推理能力

     为了让更高效的小模型像 DeepSeek-R1 具备推理能力,我们直接使用 DeepSeek-R1 整理的 80 万个样 本对开源模型(如 Qwen 和 Llama)进行了微调,具体细节见 §2.3.3。

       我们的研究结果表明,这种直接的蒸馏方法显著提升了小模型的推理能力。我们使用的基础模型包 括 Qwen2.5-Math-1.5B、Qwen2.5-Math-7B、Qwen2.5-14B、Qwen2.5-32B、Llama-3.1-8B 和 Llama-3.3-70BInstruct。我们选择 Llama-3.3 是因为其推理能力略优于 Llama-3.1。

       对于蒸馏后的模型,我们仅使用了监督微调,并未加入强化学习阶段,尽管引入强化学习可以显著 提升模型性能。我们的主要目标是展示蒸馏技术的有效性,而将强化学习阶段的探索留给更广泛的研究 社区。

3 实验

基准测试 我们在以下基准上评估模型:MMLU、MMLU-Redux、MMLU-Pro、C-Eval、CMMLU、IFEval、 FRAMES、GPQA Diamond、SimpleQA、C-SimpleQA、SWE-Bench Veriffed、Aider、LiveCodeBench、Codeforces、 中国高中数学奥林匹克(CNMO 2024)以及美国数学邀请赛 2024(AIME 2024)。

      除了标准基准测试外,我们还使用大语言模型作为评判者对开放式生成任务进行评估。具体来说,我 们遵循 AlpacaEval 2.0 和 Arena-Hard 的原始配置,利用 GPT-4-Turbo-1106 作为评判者进行成对比较。在 这里,我们仅将最终总结提供给评估,以避免长度偏差。

      对于蒸馏模型,我们报告了在 AIME 2024、MATH-500、GPQA Diamond、Codeforces 和 LiveCodeBench 上的代表性结果。 

评估提示 遵循 DeepSeek-V3 的设置,标准基准测试(如 MMLU、DROP、GPQA Diamond 和 SimpleQA) 使用 simple-evals 框架中的提示进行评估。对于 MMLU-Redux,我们采用 Zero-Eval 提示格式,并在零样 本设置下进行评估。对于 MMLU-Pro、C-Eval 和 CLUE-WSC,由于原始提示是少样本的,我们略微修改 了提示以适应零样本设置。少样本中的思维链(CoT)可能会影响 DeepSeek-R1 的性能。

       其他数据集遵循其原始评估协议,并使用其创建者提供的默认提示。对于代码和数学基准测试,HumanEvalMul 数据集涵盖了八种主流编程语言(Python、Java、C++、C#、JavaScript、TypeScript、PHP 和 Bash)。 LiveCodeBench 上的模型性能使用思维链(CoT)格式进行评估,数据收集时间为 2024 年 8 月至 2025 年 1 月。Codeforces 数据集使用 10 场 Div.2 比赛的题目以及专家编写的测试用例进行评估,随后计算预期评 分和参赛者百分比。SWE-Bench 的验证结果通过无代理框架获得。AIDER 相关基准测试使用“diff”格式进 行测量。

     DeepSeek-R1 的输出在每个基准测试中最多限制为 32,768 个 token。  

基线模型 我们对多个强基线模型进行了全面评估,包括 DeepSeek-V3、Claude-Sonnet-3.5-1022、GPT-4o0513、OpenAI-o1-mini 和 OpenAI-o1-1217。由于在中国大陆访问 OpenAI-o1-1217 的 API 较为困难,我们 根据官方报告记录了其性能。

      对于蒸馏模型,我们还比较了开源模型 QwQ-32B-Preview。

评估设置 我们将模型的最大生成长度设置为 32,768 个 token。我们发现,使用贪心解码来评估长输出 推理模型会导致更高的重复率,并且不同检查点之间的变异性较大。因此,我们默认使用 pass@?? 评估方 法,并在非零温度下报告 pass@1。具体来说,我们使用采样温度为 0.6,top-?? 值为 0.95,为每个问题生成 k 个响应(通常在 4 到 64 之间,取决于测试集大小)。然后,pass@1 的计算公式为: 

3.1 DeepSeek-R1 的评估

 

       对于教育导向的知识基准测试,例如 MMLU、MMLU-Pro 和 GPQA Diamond,DeepSeek-R1 相较于 DeepSeek-V3 展现出更优越的表现。这一改进主要归因于在 STEM 相关问题上的准确性提升,通过大规 模强化学习取得了显著的进展。此外,DeepSeek-R1 在 FRAMES 这一长上下文依赖的问答任务上表现出 色,展现了其强大的文档分析能力。这突显了推理模型在 AI 驱动的搜索和数据分析任务中的潜力。在事 实基准测试 SimpleQA 上,DeepSeek-R1 超越了 DeepSeek-V3,展示了其处理基于事实的查询的能力。在 这一基准测试中,OpenAI-o1 也超越了 GPT-4o。然而,DeepSeek-R1 在中文 SimpleQA 基准测试中的表现 逊色于 DeepSeek-V3,主要是因为其在安全强化学习后倾向于拒绝回答某些查询。如果没有安全强化学习,DeepSeek-R1 的准确率可以超过 70

       DeepSeek-R1 在 IF-Eval 上也取得了令人印象深刻的结果,该基准旨在评估模型遵循格式指令的能力。 这些改进与在监督微调(SFT)和强化学习训练的最后阶段纳入指令遵循数据有关。此外,在 AlpacaEval2.0 和 ArenaHard 上也观察到了显著的表现,表明 DeepSeek-R1 在写作任务和开放域问答方面的优势。它显 著超越 DeepSeek-V3 的表现强调了大规模强化学习的泛化优势,这不仅提升了推理能力,还改善了在多 种领域的表现。

        此外,DeepSeek-R1 生成的摘要长度简洁,在 ArenaHard 上平均为 689 个 token,在 AlpacaEval 2.0 上 为 2,218 个字符。这表明 DeepSeek-R1 在基于 GPT 的评估中避免了引入长度偏差,进一步巩固了其在多 个任务中的鲁棒性。

       在数学任务上,DeepSeek-R1 的表现与 OpenAI-o1-1217 相当,远超其他模型。在编码算法任务上,如 LiveCodeBench 和 Codeforces,也观察到了类似的趋势,推理为重点的模型在这些基准测试中占据主导地 位。在工程导向的编码任务中,OpenAI-o1-1217 在 Aider 上超越了 DeepSeek-R1,但在 SWE Veriffed 上的 表现相当。我们相信,DeepSeek-R1 在下一版本中的工程性能将有所提升,因为目前相关的强化学习训练 数据仍然非常有限。  

3.2 蒸馏模型的评估  

        如表 5 所示,简单地使用 DeepSeek-R1 的输出来蒸馏 DeepSeek-R1-7B ,使得高效的 DeepSeek-R1-7B (即 DeepSeek-R1-Distill-Qwen-7B,以下简写相同)在各方面超越了像 GPT-4o-0513 这样的非推理模型。 DeepSeek-R1-14B 在所有评估指标上超过了 QwQ-32B-Preview,而 DeepSeek-R1-32B 和 DeepSeek-R1-70B 在大多数基准测试中显著超过了 o1-mini。这些结果展示了蒸馏的强大潜力。此外,我们发现将强化学习 应用于这些蒸馏模型可以带来显著的进一步提升。我们认为这值得进一步探索,因此在此仅展示简单的 通过监督微调来蒸馏模型的结果。

4 讨论

4.1 蒸馏 v.s. 强化学习

        在第 3.2 节中,我们可以看到,通过使用 DeepSeek-R1 的输出对小模型进行蒸馏,小模型能够取得令 人印象深刻的结果。然而,仍然有一个问题:模型是否可以通过本文讨论的大规模强化学习训练而不进 行蒸馏来实现可比的性能?

       为了解答这个问题,我们在 Qwen-32B-Base 上进行了大规模强化学习训练,使用数学、代码和 STEM 数据,训练超过 10K 步,最终得到了 DeepSeek-R1-Zero-Qwen-32B。实验结果如表 6 所示,经过大规模 强化学习训练后,32B 基础模型的性能与 QwQ-32B-Preview 相当。然而,从 DeepSeek-R1 蒸馏而来的 DeepSeek-R1-Distill-Qwen-32B 在所有基准测试中表现显著优于 DeepSeek-R1-Zero-Qwen-32B。

       因此,我们可以得出两个结论:首先,将更强大的模型蒸馏为更小的模型能够获得优异的结果,而 依赖于本文提到的大规模强化学习的小模型则需要巨大的计算能力,甚至可能无法达到蒸馏的性能。其 次,尽管蒸馏策略既经济又有效,但要超越智能的边界,仍可能需要更强大的基础模型和更大规模的强 化学习。 

4.2 不成功的尝试

       在开发 DeepSeek-R1 的早期阶段,我们也遇到了失败和挫折。我们在此分享我们的失败经验,以提 供一些见解,但这并不意味着这些方法无法开发出有效的推理模型。

过程奖励模型 (PRM) PRM 是一种合理的方法,可以引导模型朝着更好的方式解决推理任务。然而,在 实践中,PRM 存在三个主要限制,可能会阻碍其最终成功。

首先,在一般推理中,明确地定义一个细粒度步骤是具有挑战性的。

其次,确定当前中间步骤是否正确是一项艰巨的任务。使用模型进行自动标注可能无法产生令人满 意的结果,而手动标注又不利于规模化。

第三,一旦引入基于模型的 PRM,就不可避免地会导致奖励黑客行为,而重训练奖励模型需要额外 的训练资源,并使整个训练流程变得复杂。总之,虽然 PRM 在重新排序模型生成的前 N 个响应或辅助引 导搜索方面表现出良好的能力,但与其在我们实验中引入的大规模强化学习过程所增加的计算开销相比, 其优势是有限的。

蒙特卡洛树搜索 (MCTS) 受到 AlphaGo 和 AlphaZero 的启发,我们探索了使用蒙特卡罗树搜索(MCTS) 来增强测试时计算的可扩展性。这种方法涉及将答案分解为更小的部分,以便模型能够系统地探索解决 方案空间。为此,我们提示模型生成多个标签,这些标签对应于搜索所需的特定推理步骤。在训练过程 中,我们首先使用收集到的提示通过 MCTS 找到答案,并由预训练的价值模型进行引导。随后,我们使 用得到的问题-答案对来训练演员模型和价值模型,迭代地改进这一过程。  

       然而,这种方法在扩大训练规模时遇到了几个挑战。首先,与棋类游戏不同,棋类游戏的搜索空间相 对明确,而标记生成则呈现出指数级更大的搜索空间。为了解决这个问题,我们为每个节点设置了最大 扩展限制,但这可能导致模型陷入局部最优。其次,价值模型直接影响生成质量,因为它指导搜索过程 的每一步。训练一个细粒度的价值模型本质上是困难的,这使得模型难以进行迭代改进。虽然 AlphaGo 的核心成功依赖于训练一个价值模型以逐步提升其性能,但由于标记生成的复杂性,这一原则在我们的 设置中难以复制。

       总之,尽管 MCTS 在与预训练的价值模型配对时可以提高推理性能,但通过自我搜索迭代提升模型 性能仍然是一个重大挑战。 

5 结论,局限性,和未来的工作

       在这项工作中,我们分享了通过强化学习增强模型推理能力的旅程。DeepSeek-R1-Zero 代表了一种纯 粹的强化学习方法,未依赖于冷启动数据,在各种任务中取得了强大的性能。DeepSeek-R1 更为强大,利 用冷启动数据并结合迭代的强化学习微调。最终,DeepSeek-R1 在一系列任务中实现了与 OpenAI-o1-1217 相当的性能。

       我们进一步探索将推理能力蒸馏到小型稠密模型中。我们使用 DeepSeek-R1 作为教师模型生成了 80 万个训练样本,并对多个小型稠密模型进行了微调。结果令人鼓舞:DeepSeek-R1-Distill-Qwen-1.5B 在数 学基准测试中表现优于 GPT-4o 和 Claude-3.5-Sonnet,在 AIME 上达到了 28.9% 的成绩,在 MATH 上达 到了 83.9% 的成绩。其他稠密模型也取得了令人印象深刻的结果,显著超越了基于相同基础检查点的其 他指令调优模型。 在未来,我们计划在以下方向上对 DeepSeek-R1 进行研究上的投入。

• 通用能力:目前,DeepSeek-R1 在函数调用、多轮对话、复杂角色扮演和 JSON 输出等任务上的能力 仍不及 DeepSeek-V3。展望未来,我们计划探索如何利用长思维链(CoT)来增强这些领域的任务。

• 多语言混合:DeepSeek-R1 目前针对中文和英文进行了优化,这可能导致在处理其他语言的查询时 出现语言混合问题。例如,DeepSeek-R1 可能会在推理和回应中使用英语,即使查询是用英语或中 文以外的语言提出的。我们计划在未来的更新中解决这一限制。

• 提示词工程:在评估 DeepSeek-R1 时,我们观察到它对提示词非常敏感。少量示例提示会持续降低 其性能。因此,我们建议用户直接描述问题,并在 zero-shot 设置下指定输出格式,以获得最佳结果。

• 软件工程任务:由于评估时间较长,影响了强化学习过程的效率,大规模的强化学习尚未广泛应用 于软件工程任务。因此,DeepSeek-R1 在软件工程基准测试中并未显示出相较于 DeepSeek-V3 的巨 大改进。未来的版本将通过在软件工程数据上实施拒绝采样或在强化学习过程中引入异步评估来提 高效率。  


http://www.ppmy.cn/server/170893.html

相关文章

全价值链数字化转型:以美的集团为例,探索开源AI大模型与S2B2C商城小程序源码的融合应用

摘要:在数字经济时代背景下,企业面临着前所未有的竞争压力与市场变革。全价值链的数字化转型,作为提升企业核心竞争力的关键策略,正逐步成为行业共识。美的集团,作为家电行业的领军企业,其基于数字化的全价…

在Ubuntu下通过Docker部署Redis服务器

Docker是一个开源的容器化平台,能让你轻松打包、分发和运行应用程序。它利用操作系统级虚拟化技术,将应用及其依赖环境封装在一个独立的容器中,确保在任何环境中都能一致运行。而Redis则是一个高性能的键值数据库,主要用于缓存和数…

【【Systemverilog学习参考 简单的加法器验证-含覆盖率】】

【【Systemverilog学习参考 简单的加法器验证-含覆盖率】】 adder.v module adder (input clk ,input rst_n ,input [3 : 0] in_0 ,input [3 : 0] in_1 ,input sel ,…

WPS PPT插入各种线型形状(如画直线)的时候总是有箭头,如何还原成只画直线

WPS PPT插入各种线型形状(如画直线)的时候总是有箭头,如何还原成只画直线 文章目录 WPS PPT插入各种线型形状(如画直线)的时候总是有箭头,如何还原成只画直线一、问题出现的原因二、解决方法 在使用 WPS 演…

Python爬虫系统搭建教程,从0开始搭建爬虫系统(附安装包)

文章目录 前言一、Python环境搭建1.Python安装2.选择Python开发环境3. 安装必要库 二、基础爬虫构建1. 发送请求获取网页2. 解析网页提取数据 三、使用 Scrapy 框架搭建系统1. 创建 Scrapy 项目2. 生成爬虫3. 编写爬虫代码4. 运行爬虫 四、应对反爬虫机制1. 常见反爬虫手段2. 解…

【网络安全 | 漏洞挖掘】Stripe 子系统 TaxJar 的 ATO 漏洞挖掘之旅

未经许可,不得转载。 文章目录 正文在这篇文章中,我将带大家回顾我是如何在 Stripe 旗下的 TaxJar 发现一个账户接管(Account Takeover)漏洞的。 正文 进入 TaxJar 后,我花了一些时间四处探索,发现了一些零碎的小问题。然而,我的目标是以低权限用户的身份邀请一个新成员…

seacmsv9管理员账号+密码注入

Seacms v9 SQL 注入漏洞分析与利用 1. 漏洞概述 Seacms(海洋 CMS)是一款基于 PHP5.X MySQL 架构的视频点播系统,被广泛用于影视站点管理。在 Seacms v9 版本中,./comment/api/index.php 存在 SQL 注入漏洞,漏洞参数…

《Head First设计模式》读书笔记 —— 命令模式

文章目录 本节用例餐厅类比点餐流程角色与职责从餐厅到命令模式 命令模式第一个命令对象实现命令接口实现一个命令 使用命令对象NoCommand与空对象 定义命令模式支持撤销功能使用状态实现撤销多层次撤销 One One One …… more things宏命令使用宏命令 队列请求日志请求 总结 《…