2025 推理技术风向标:DeepSeek-R1 揭示大模型从 “记忆” 到 “思考” 的进化路径
注:此文章内容均节选自充电了么创始人,CEO兼CTO陈敬雷老师的新书《GPT多模态大模型与AI Agent智能体》(跟我一起学人工智能)【陈敬雷编著】【清华大学出版社】
文章目录
- DeepSeek大模型技术系列十八
- DeepSeek大模型技术系列十八》2025 推理技术风向标:DeepSeek-R1 揭示大模型从 “记忆” 到 “思考” 的进化路径
- 更多技术内容
- 总结
DeepSeek大模型技术系列十八
DeepSeek大模型技术系列十八》2025 推理技术风向标:DeepSeek-R1 揭示大模型从 “记忆” 到 “思考” 的进化路径
在人工智能的前沿探索中,模型推理能力的强化始终是推动技术进步的核心议题。随着大语言模型在各领域的广泛应用,如何让模型在复杂推理任务中展现出卓越性能,成为了研究人员竞相攻克的难题。DeepSeek团队在这一征程中积极探索,开发出了一系列极具创新性的技术,其中DeepSeek-R1推理能力强化技术尤为引人注目。该技术体系涵盖了从基于基础模型的强化学习,到冷启动强化学习,再到知识蒸馏等多个关键环节,旨在全方位提升模型的推理水平,为大语言模型的发展开辟新的路径。接下来将深入剖析这些技术的精妙之处及其所带来的显著成果。
3.6.1 DeepSeek-R1-Zero:基于基础模型的强化学习
强化学习在推理任务中的有效性已得到充分展现,然而也存在一个明显的局限性,那就是严重依赖监督数据。而在实际操作中,收集监督数据是一项极为耗时的工作,这在一定程度上限制了强化学习的应用和发展。下面将重点探索大语言模型在不依赖任何监督数据的情况下,发展推理能力的潜力。主要关注的是大语言模型如何通过纯粹的强化学习过程,实现自身的进化与提升。首先会对所采用的强化学习算法进行简要介绍,让读者对其原理和特点有一个基本的认识。随后,会展示一些令人振奋的研究结果,这些结果有望为相关研究社区提供有价值的参考和启示,推动该领域的进一步发展。
1.DeepSeek-R1-Zero的GRPO
为了降低强化学习的训练成本,DeepSeek-R1也采用了GRPO这一方法。与传统的强化学习方法不同,GRPO摒弃了那种通常与策略模型大小相同的价值评估模型。而是采用了一种全新的思路,即从组得分中估计基线。具体的操作过程是这样的:对于每一个问题q,GRPO会从旧策略中采样出一组输出。然后,通过对特定目标的最大化来实现对策略模型的优化。这种优化方式能够使模型在不依赖大量监督数据的情况下,依然能够有效地学习和改进,从而提升自身的推理能力。在DeepSeek-R1-Zero的训练过程中,会使用特定的内容来替代训练时的提示部分,这些提示将被具体的推理问题所取代。这个特定的内容在整个训练过程中起着关键的作用,它为模型提供了一个标准化的输入框架。通过将具体的推理问题代入其中,模型能够更好地理解问题的结构和要求,从而更有针对性地进行学习和推理。随着训练的进行,模型会不断地接触到各种不同的推理问题,通过对这些问题的处理和学习,逐渐提升自己在推理任务中的表现。
2.DeepSeek-R1-Zero的奖励建模
在强化学习中,奖励机制至关重要,它作为训练信号的源头,对强化学习的优化方向起着决定性作用。在训练DeepSeek-R1-Zero时,采用了基于规则的奖励系统,该系统主要涵盖两种不同类型的奖励,以此来引导模型学习并提升性能。
1)准确率奖励
准确率奖励模型主要用于评判模型给出的回答是否正确。以数学问题为例,许多数学问题都有确切无疑的答案。为了能够基于规则准确地验证答案的正确性,要求模型按照特定格式,比如在框内给出最终答案。通过这种明确的格式要求,能够依据既定规则可靠地判断答案是否准确。同样,在处理LeetCode问题时,借助编译器,依据预先定义好的测试用例来生成反馈。编译器能够根据测试用例对模型给出的代码解决方案进行运行和评估,以此判断模型回答的正确性,进而给予相应的准确率奖励。这种基于规则的准确率奖励方式,为模型在面对有明确答案的问题时,提供了清晰的反馈信号,有助于模型朝着正确的方向学习和改进。
2)格式奖励
除了准确率奖励模型,还引入了格式奖励模型。该模型对模型的输出格式有特定要求,即要求模型将其思考过程放置在和标签之间。通过这种方式,能够促使模型不仅要给出正确答案,还要清晰地展示其思考过程。这样做的好处在于,一方面可以帮助用户更好地理解模型的决策逻辑,另一方面也有助于模型自身对思考过程进行梳理和优化,提高推理的可解释性和准确性。
在开发DeepSeek-R1-Zero时,没有采用结果或过程神经奖励模型。这是因为在大规模强化学习过程中,神经奖励模型存在一些明显的弊端。其中最突出的问题就是可能会出现奖励作弊现象,模型可能会通过一些不当方式来获取更高的奖励,而并非真正提升了自身的推理能力。此外,重新训练神经奖励模型需要投入额外的训练资源,这不仅会增加训练成本,还会使整个训练流程变得更加复杂,不利于高效地训练DeepSeek-R1-Zero模型。因此,基于规则的奖励系统在确保模型有效学习的同时,避免了神经奖励模型带来的诸多问题。
3.训练模板
在训练DeepSeek-R1-Zero时,关键的第一步是构建一个恰当的训练模板,该模板将引导基础模型遵循特定指令开展学习与输出。此模板有着清晰的要求:DeepSeek-R1-Zero需要先呈现推理过程,随后给出最终答案。将约束设定在这样的结构格式上,是经过深思熟虑的。在训练期间,特意规避了任何特定内容的偏向性引导。例如,不会强行要求模型进行反思性推理,也不会专门去推广某一种特定的问题解决策略。这样做的核心目的,是为了能够精准洞察模型在强化学习进程中的自然演进情况。毕竟,倘若在训练初始阶段就加入过多特定内容的指引,极有可能对模型自身能力的发展判断造成干扰。借助这种简洁且重点关注结构格式的模板,模型得以在相对宽松自由的环境里,依据强化学习的反馈机制,逐步摸索并提升自身的推理能力。如此一来,便能更真切地呈现出模型在较少预设干扰状态下的成长路径,为后续针对模型性能的评估与优化工作,提供更为可靠的参考依据。
5.DeepSeek-R1-Zero的性能、自我进化过程和顿悟时刻
DeepSeek-R1-Zero作为一款基于强化学习进行优化的模型,它在推理任务中展现出了巨大的潜力。从性能的稳步提升,到自我进化过程中展现出的自主学习能力,再到令人惊喜的“顿悟时刻”,DeepSeek-R1-Zero揭示了强化学习在推动模型发展方面的强大力量。当然,如同所有模型一样,它也并非完美无缺,存在着一些有待解决的问题。接下来将深入剖析DeepSeek-R1-Zero的性能、自我进化过程、顿悟时刻以及其存在的缺点,全面了解这款模型的特点与潜力。
1)DeepSeek-R1-Zero的性能
DeepSeek-R1-Zero在训练期间AIME准确率如图3-5所示。
图3-5 DeepSeek-R1-Zero在训练期间AIME准确率
通过图3-5可以清晰看到DeepSeek-R1-Zero在2024年AIME基准测试里,整个强化学习训练进程中性能的变化情况。随着强化学习训练的不断推进,DeepSeek-R1-Zero的性能呈现出稳步上升的趋势。特别值得关注的是,在2024年AIME测试中,其平均单次通过率有了极大的提升,从最初的16.6%大幅跃升至71.0%,这一成绩已经达到了和OpenAI-o1-0912相当的性能水平。如此显著的性能提升,充分表明了所采用的强化学习算法在优化模型性能方面效果显著。
对DeepSeek-R1-Zero和OpenAI的o1-0912模型在各类推理相关基准测试中的表现进行对比分析后发现,强化学习让DeepSeek-R1-Zero在没有任何监督微调数据的情况下,就获得了强大的推理能力。这是一项非常值得关注的成果,它有力地证明了该模型仅仅依靠强化学习,就能够有效地进行学习和泛化。而且,通过多数投票的方式,DeepSeek-R1-Zero的性能还能进一步提高。就拿AIME基准测试来说,采用多数投票时,其性能从原本的 71.0% 提升到了87.7%,超过了OpenAI-o1-0912的性能。不管是否使用多数投票,DeepSeek-R1-Zero都能取得具有竞争力的性能,这不仅体现了它强大的基础能力,也展示了其在推理任务中还有很大的提升潜力。另外,在图3-5中,对于每个问题,都会采样16个回答,并计算总体平均准确率,这样做是为了确保评估结果的稳定性。
2)DeepSeek-R1-Zero的自我进化过程
DeepSeek-R1-Zero的自我进化过程很好地展示了强化学习是如何推动模型自主提升推理能力的。从基础模型直接启动强化学习,能够在不受监督微调阶段影响的情况下,对模型的发展进行密切观察。这种方式清晰地呈现出了模型随着时间推移的演变情况,尤其是在处理复杂推理任务的能力方面。DeepSeek-R1-Zero训练期间每个响应的平均长度如图3-6所示。
图3-6 训练期间每个响应的平均长度
从图3-6可以看出,DeepSeek-R1-Zero的思考时间在整个训练过程中持续得到改善。这种改善并非是通过外部调整实现的,而是模型内部自然发展的结果。DeepSeek-R1-Zero借助更长的测试时计算,自然而然地获得了解决越来越复杂推理任务的能力。它的计算过程能够生成数百到数千个推理标记,这使得模型可以更深入地探索和完善自己的思维过程。
在自我进化过程中,一个很显著的特点是,随着测试时计算量的增加,模型出现了一些复杂行为。比如,模型会进行反思,也就是回顾并重新评估之前的步骤;还会自发地去探索解决问题的其他方法。这些行为并不是预先设定好的,而是模型在与强化学习环境交互的过程中产生的。这种自发的发展极大地提升了DeepSeek-R1-Zero的推理能力,让它能够更高效、准确地处理更具挑战性的任务。
3)DeepSeek-R1-Zero的顿悟时刻
在训练 DeepSeek-R1-Zero的过程中,出现了一个特别有趣的现象,那就是 “顿悟时刻”。这个时刻出现在模型的一个中间版本中。在这个阶段,DeepSeek-R1-Zero学会了通过重新评估初始方法,为一个问题分配更多的思考时间。这种行为不仅体现了模型推理能力的不断提升,也生动地证明了强化学习能够带来意外且复杂的结果。这个“顿悟时刻”对于模型本身以及观察其行为的研究人员来说,都具有重要意义。它凸显了强化学习的强大之处和独特魅力:不需要明确地教导模型如何解决问题,只要给予合适的激励,模型就能自主地开发出先进的问题解决策略。“顿悟时刻”也让我们深刻认识到,强化学习有潜力在人工系统中解锁新的智能水平,为未来开发更自主、更具适应性的模型奠定了基础。模型在这个阶段还学会了以拟人化的语气进行反思,这让我们更直观地见证了强化学习的力量与美妙之处。
4)DeepSeek-R1-Zero的缺点
尽管DeepSeek-R1-Zero展现出了强大的推理能力,并且自主发展出了一些意想不到的强大推理行为,但它也存在一些问题。比如,DeepSeek-R1-Zero面临着可读性差和语言混杂等挑战。为了让推理过程更易于阅读,并且能够与开放社区分享,研究人员探索了 DeepSeek-R1,这是一种利用包含人类友好型冷启动数据的强化学习方法。
3.6.2 DeepSeek-R1:冷启动强化学习
DeepSeek-R1-Zero取得的成果令人看到了希望,这也引发了两个很自然的问题。其一,通过引入少量高质量数据作为冷启动手段,能不能进一步提升推理性能,或者加快模型收敛的速度?其二,要怎样训练出一个对用户友好的模型,使其不但能生成清晰、连贯的思维链,还具备强大的通用能力?为解决这些问题,DeepSeek团队专门设计了一套训练DeepSeek-R1的流程,该流程涵盖四个阶段,具体内容如下。
1.冷启动
DeepSeek-R1的训练方式与DeepSeek-R1-Zero有所不同。DeepSeek-R1-Zero从基础模型启动强化学习训练时,早期的冷启动阶段不太稳定。为避免这种情况,对于DeepSeek-R1,构建并收集了少量长思维链数据,利用这些数据对模型进行微调,以此作为初始强化学习的起始点。在收集这类数据时,尝试了多种方法。比如,运用带有长思维链示例的少样本提示,直接提示模型生成带有反思和验证的详细答案,收集格式便于阅读的DeepSeek-R1-Zero输出,以及通过人工标注进行后处理来优化结果。在此次研究工作中,收集了数千条冷启动数据,用这些数据对DeepSeek-V3-Base进行微调,从而作为强化学习的起点。与DeepSeek-R1-Zero相比,冷启动数据具有明显优势:
1)可读性
DeepSeek-R1-Zero存在一个关键的局限性,即其生成的内容往往可读性不佳。回复可能会混杂多种语言,或者没有采用Markdown格式来突出答案,这给用户查看造成了不便。与之不同的是,在为DeepSeek-R1创建冷启动数据时,设计了一种易于阅读的模式。在每个回复的结尾添加了总结部分,并筛除了那些不利于阅读的回复。这里,将输出格式设定为 | 特殊标记 |<推理过程>| 特殊标记 |<总结> ,其中推理过程是针对查询所生成的思维链,总结则用于概括推理的最终结果。通过这种格式设计,用户能够更轻松地理解模型的推理逻辑和结论。
2)潜力
在设计冷启动数据模式时,融入了人类的先验知识。经过实践观察,发现这种方式训练出的模型性能优于DeepSeek-R1-Zero。这表明,对于推理模型而言,迭代训练或许是一种更为有效的方式。通过精心设计的冷启动数据作为开端,模型能够在后续的强化学习过程中,更快地适应任务需求,提升推理能力,展现出更大的发展潜力。
2.面向推理的强化学习
在完成对DeepSeek-V3-Base基于冷启动数据的微调之后,便开启了与DeepSeek-R1-Zero相同的大规模强化学习训练进程。这一阶段的核心目标在于提升模型的推理能力,尤其是在编码、数学、科学以及逻辑推理这类对推理能力要求极高的任务领域。这些任务具有明确的问题表述以及清晰的解决方案,为模型的训练提供了精准的目标导向。
在训练推进的过程中,一个明显的问题逐渐浮现,即思维链中频繁出现语言混杂的现象。特别是当强化学习所使用的提示涉及多种语言时,这种情况更为突出。比如在一个数学推理任务中,提示语可能包含中文描述和英文的数学术语,模型在生成思维链时,可能会将多种语言的表述随意混合,导致思维链的连贯性和可读性大打折扣。
为了有效缓解这一语言混杂问题,在强化学习训练中引入了语言一致性奖励机制。该机制通过计算思维链中目标语言单词的比例来衡量语言的一致性程度。举例来说,如果目标语言是中文,那么在生成的思维链中,中文单词所占的比例越高,语言一致性奖励就越高。虽然消融实验显示,引入这一调整后,模型在某些性能指标上会出现略微下降的情况,但从整体来看,它极大地提升了思维链的可读性,更符合人类的阅读和理解习惯。毕竟,一个清晰、语言统一的思维链,能让用户更顺畅地理解模型的推理过程。
最后,将推理任务的准确率和语言一致性奖励进行直接相加,以此形成最终奖励。这种综合考虑的方式,既保证了模型对推理结果准确性的追求,又兼顾了思维链语言表达的规范性。随后,利用这个最终奖励对微调后的模型展开强化学习训练,持续训练直至模型在推理任务上达到收敛状态。这意味着模型在面对各类推理任务时,能够稳定地输出高质量、语言一致且准确的推理结果。
3.拒绝采样和监督微调
当面向推理的强化学习达到收敛状态后,会利用此时得到的检查点,为下一轮训练收集监督微调数据。与最初侧重于推理的冷启动数据不同,这一阶段的数据收集范围更广,纳入了来自其他领域的数据,目的是增强模型在写作、角色扮演以及其他通用任务方面的能力。具体的数据生成和模型微调方式如下:
1)推理数据
首先对推理提示进行整理,然后通过对强化学习训练得到的检查点执行拒绝采样,以此生成推理轨迹。在之前的训练阶段,只纳入了能够使用基于规则的奖励进行评估的数据。但在这个阶段,为了丰富数据集,扩展了数据的来源范围,纳入了更多不同类型的数据。其中,部分数据借助生成式奖励模型来评估,具体做法是将真实答案和模型预测结果输入到DeepSeek-V3中,由DeepSeek-V3来判断数据的质量。
由于模型输出有时会存在混乱、难以阅读的情况,所以会对生成的数据进行严格筛选。将那些语言混杂的思维链、冗长的段落以及代码块等不符合要求的内容过滤掉。对于每个推理提示,会采样多个回复,仅保留其中正确的回复。经过这样的处理流程,最终收集到了大约60万个与推理相关的训练样本。这些样本经过精心筛选,能够为模型在推理能力的进一步提升上提供高质量的数据支持。
2)非推理数据
对于非推理数据,比如写作、事实性问答、自我认知以及翻译等任务的数据收集,采用了DeepSeek-V3的流程,并且复用了DeepSeek-V3的部分监督微调数据集。在处理某些非推理任务时,会通过提示来调用DeepSeek-V3,让其在回答问题前先生成潜在的思维链,以帮助模型更好地理解和回答问题。不过,对于像“你好”这类简单的查询,就不需要提供思维链作为回复,因为这类问题较为直接,无需复杂的推理过程。经过一系列的数据处理和收集工作,最终总共收集到了大约20万个与推理无关的训练样本。这些非推理数据涵盖了多个领域,能够帮助模型拓展在不同任务场景下的处理能力。
利用上述精心整理的约80万个样本的数据集,对DeepSeek-V3-Base进行两个轮次的微调。通过这两个轮次的微调,模型能够充分学习到这些多样化数据中的知识和模式,从而进一步提升自身在推理任务以及其他各类通用任务上的表现,增强模型的综合能力。
5.全场景强化学习
为了让模型能更好地契合人类的使用需求和偏好,实施了第二个强化学习阶段。这个阶段有着明确的多重目标,不仅要提升模型在实际应用中的有用性,还要确保其输出内容的无害性,同时进一步优化模型本身的推理能力,使模型在各个方面都能达到更理想的状态。
在具体的操作过程中,主要通过使用奖励信号和多样化的提示分布来对模型进行训练。对于推理数据部分,借鉴了DeepSeek-R1-Zero中所阐述的方法。在数学、代码以及逻辑推理这些领域,利用基于规则的奖励机制来引导模型的学习进程。例如在数学问题中,依据既定的规则判断模型给出的答案是否正确,若正确则给予相应的奖励,以此激励模型朝着正确的方向学习和推理。
而对于通用数据,由于其场景更为复杂多样,单纯依靠基于规则的奖励难以全面捕捉人类的偏好,所以采用了奖励模型。这个奖励模型能够深入分析复杂和微妙场景中的各种因素,从而更准确地捕捉人类的偏好。并且,基于DeepSeek-V3的流程,采用了类似的偏好对和训练提示分布,使得模型在学习过程中能够更好地适应不同类型的通用数据。
在衡量模型的有用性方面,重点聚焦于最终总结部分。这样做的目的是确保评估过程主要强调回复对用户的实际价值和相关性,避免过多关注底层推理过程而产生干扰。例如,当用户提出一个问题时,模型给出的总结能够直接命中问题的关键,为用户提供有价值的信息,那么这个模型在有用性方面就表现良好。
对于模型的无害性评估,则会全面考量模型的整个回复内容,包括推理过程和总结部分。通过这种方式,能够及时识别并减轻模型在生成内容过程中可能出现的任何潜在风险、偏差或者有害内容。比如,在一些涉及价值观判断或者可能引发争议的问题上,模型的回复需要确保不会传播错误信息或者引起不良影响。
通过将奖励信号和多样化的数据分布进行有机整合,经过这个阶段的训练,最终得到了一个在推理能力上表现出色,同时又将有用性和无害性放在重要位置的模型。这样的模型在实际应用中,能够更好地满足用户的需求,为用户提供更优质、更安全的服务。
3.6.3 知识蒸馏:赋予小模型推理能力
在模型研究与实际应用的广阔领域中,让高效的小模型拥有如同DeepSeek-R1般强大的推理能力,一直是极具价值的探索方向。这不仅能够拓展模型的应用场景,还能显著提升整体的应用效率。为达成这一目标,研究团队运用前文提及的经过精心整理的80万个样本,直接针对Qwen和Llama等开源模型开展微调工作。
历经一系列严谨的实验与深入研究,发现这种看似简易的蒸馏方法,竟能极大地提升小模型的推理能力。在此次研究里,选用了多个不同规模的基础模型,其中包括DeepSeek-R1-Distill-Qwen-1.5B、DeepSeek-R1-Distill-Qwen-7B、DeepSeek-R1-Distill-Qwen-14B、DeepSeek-R1-Distill-Qwen-32B,以及DeepSeek-R1-Distill-Llama-8B和DeepSeek-R1-Distill-Llama-70B-Instruct。选择Llama-3.3作为研究对象,是因为在前期的测试与对比中,其推理能力相较于Llama-3.1更为出色,能够为后续的研究提供更具潜力的基础。
对于经过蒸馏处理后的模型,在后续操作中仅采用了监督微调的方式,并未将强化学习阶段纳入其中。从以往的经验和相关研究可以知晓,若加入强化学习,能够在很大程度上进一步提升模型的性能。但此次研究的核心目的在于重点展示蒸馏技术本身的有效性,因此将强化学习阶段的深入探索留给更广泛的研究群体,以便众多研究人员能从不同视角深入挖掘与拓展,从而有力地推动整个领域的发展。通过这样的安排,清晰直观地呈现出蒸馏技术在赋予小模型推理能力方面的显著成效,为后续更为深入的研究与应用筑牢根基。
通过对DeepSeek-R1进行蒸馏,小模型取得了令人瞩目的成果。然而,一个新的问题随之而来:模型能否通过本文所探讨的大规模强化学习训练,在不借助蒸馏的情况下达到与之可比的性能?为了探寻这一问题的答案,研究人员使用数学、代码以及STEM数据,对Qwen-32B-Base展开大规模强化学习训练,训练步数超过10000步,最终得到DeepSeek-R1-Zero-Qwen-32B。实验结果清晰呈现,经过大规模强化学习训练的320亿参数基础模型,其性能与QwQ-32B-Preview基本相当。但是,从DeepSeek-R1蒸馏得到的DeepSeek-R1-Distill-Qwen-32B,在所有基准测试中的表现均明显优于DeepSeek-R1-Zero-Qwen-32B。
基于以上实验结果,可以得出两个重要结论:其一,将更强的模型蒸馏到小模型中,能够产生极为出色的效果。与之相对的是,依赖本文所提及的大规模强化学习的小模型,不仅需要投入巨大的计算资源,甚至可能都无法达到蒸馏所实现的性能水平。其二,虽然蒸馏策略既经济实惠又行之有效,但要想突破智能的边界,或许仍然需要更为强大的基础模型以及大规模强化学习的协同作用。
更多技术内容
更多技术内容可参见
《GPT多模态大模型与AI Agent智能体》(跟我一起学人工智能)【陈敬雷编著】【清华大学出版社】书籍。
更多的技术交流和探讨也欢迎加我个人微信chenjinglei66。
总结
此文章有对应的配套新书教材和视频:
【配套新书教材】
《GPT多模态大模型与AI Agent智能体》(跟我一起学人工智能)【陈敬雷编著】【清华大学出版社】
新书特色:《GPT多模态大模型与AI Agent智能体》(跟我一起学人工智能)是一本2025年清华大学出版社出版的图书,作者是陈敬雷,本书深入探讨了GPT多模态大模型与AI Agent智能体的技术原理及其在企业中的应用落地。
全书共8章,从大模型技术原理切入,逐步深入大模型训练及微调,还介绍了众多国内外主流大模型。LangChain技术、RAG检索增强生成、多模态大模型等均有深入讲解。对AI Agent智能体,从定义、原理到主流框架也都进行了深入讲解。在企业应用落地方面,本书提供了丰富的案例分析,如基于大模型的对话式推荐系统、多模态搜索、NL2SQL数据即席查询、智能客服对话机器人、多模态数字人,以及多模态具身智能等。这些案例不仅展示了大模型技术的实际应用,也为读者提供了宝贵的实践经验。
本书适合对大模型、多模态技术及AI Agent感兴趣的读者阅读,也特别适合作为高等院校本科生和研究生的教材或参考书。书中内容丰富、系统,既有理论知识的深入讲解,也有大量的实践案例和代码示例,能够帮助学生在掌握理论知识的同时,培养实际操作能力和解决问题的能力。通过阅读本书,读者将能够更好地理解大模型技术的前沿发展,并将其应用于实际工作中,推动人工智能技术的进步和创新。
【配套视频】
推荐算法系统实战全系列精品课【陈敬雷】
视频特色: 首先推荐系统不等于推荐算法,更不等于协同过滤。推荐系统是一个完整的系统工程,从工程上来讲是由多个子系统有机的组合,比如基于Hadoop数据仓库的推荐集市、ETL数据处理子系统、离线算法、准实时算法、多策略融合算法、缓存处理、搜索引擎部分、二次重排序算法、在线web引擎服务、AB测试效果评估、推荐位管理平台等,每个子系统都扮演着非常重要的角色,当然大家肯定会说算法部分是核心,这个说的没错,的确。推荐系统是偏算法的策略系统,但要达到一个非常好的推荐效果,只有算法是不够的。比如做算法依赖于训练数据,数据质量不好,或者数据处理没做好,再好的算法也发挥不出价值。算法上线了,如果不知道效果怎么样,后面的优化工作就无法进行。所以AB测试是评价推荐效果的关键,它指导着系统该何去何从。为了能够快速切换和优化策略,推荐位管理平台起着举足轻重的作用。推荐效果最终要应用到线上平台去,在App或网站上毫秒级别的快速展示推荐结果,这就需要推荐的在线Web引擎服务来保证高性能的并发访问。这么来说,虽然算法是核心,但离不开每个子系统的配合,另外就是不同算法可以嵌入到各个子系统中,算法可以贯穿到每个子系统。
从开发人员角色上来讲,推荐系统不仅仅只有算法工程师角色的人就能完成整个系统,需要各个角色的工程师相配合才行。比如大数据平台工程师负责Hadoop集群和数据仓库,ETL工程师负责对数据仓库的数据进行处理和清洗,算法工程师负责核心算法,Web开发工程师负责推荐Web接口对接各个部门,比如网站前端、APP客户端的接口调用等,后台开发工程师负责推荐位管理、报表开发、推荐效果分析等,架构师负责整体系统的架构设计等。所以推荐系统是一个多角色协同配合才能完成的系统。
下面我们就从推荐系统的整体架构以及各个子系统的实现给大家深度解密来自一线大型互联网公司重量级的实战产品项目!!!
推荐算法系统实战课程大纲如下:
1、推荐系统架构设计
2、推荐数据仓库集市
3、推荐系统ETL数据处理
4、CF协同过滤用户行为挖掘
5、推荐算法ALS交替最小二乘法
6、推荐系统ContentBase文本挖掘算法
7、用户画像兴趣标签提取算法
8、基于用户心理学模型推荐
9、推荐系统多策略融合算法
10、准实时在线学习推荐引擎
11、Redis分布式缓存处理
12、分布式搜索引擎
13、推荐Rerank二次重排序算法(基于逻辑回归、GBDT、随机森林、神经网络的算法思想做二次排序)【可试听】
14、推荐Rerank二次重排序算法(基于Learning TO rank排序学习思想做二次排序)
15、推荐Rerank二次重排序算法(基于加权公式思想做二次排序)
16、在线Web实时推荐引擎服务原理及核心处理算法
17、在线Web实时推荐引擎服务核心源代码解析
18、在线AB测试推荐效果评估
19、离线AB测试推荐效果评估
20、推荐位管理平台
21、大数据用户画像系统架构图深度解密与详细介绍
22、大数据用户画像系统中各个子系统详细讲解!
自然语言处理NLP原理与实战 视频教程【陈敬雷】
视频特色:《自然语言处理NLP原理与实战》包含了互联网公司前沿的热门算法的核心原理,以及源码级别的应用操作实战,直接讲解自然语言处理的核心精髓部分,自然语言处理从业者或者转行自然语言处理者必听视频!
人工智能《分布式机器学习实战》 视频教程【陈敬雷】
视频特色:视频核心内容有互联网公司大数据和人工智能、大数据算法系统架构、大数据基础、Python编程、Java编程、Scala编程、Docker容器、Mahout分布式机器学习平台、Spark分布式机器学习平台、分布式深度学习框架和神经网络算法、自然语言处理算法、工业级完整系统实战(推荐算法系统实战、人脸识别实战、对话机器人实战)。
上一篇:DeepSeek大模型技术系列七》DeepSeek 突破!NSA——DeepSeek 原生稀疏注意力开启硬件适配与可训练新时代
下一篇:DeepSeek大模型技术系列五》DeepSeek大模型基础设施全解析:支撑万亿参数模型的幕后英雄