当前位置: 首页 > wzjs >正文

山西网站建设免费网络营销活动策划

山西网站建设免费,网络营销活动策划,功能型网站 设计,游戏外包公司怎么接活DataWhale大语言模型-大模型技术基础 什么是大语言模型预训练和后训练之间的对比大模型预训练(Pre-training)大语言模型后训练(Post-Training)指令微调(Instruction Tuning)人类对齐(Human Alignment) 扩展定律KM扩展定律Chinchilla扩展定律深入讨论 涌现能力代表性能力指令遵循…

DataWhale大语言模型-大模型技术基础

  • 什么是大语言模型
    • 预训练和后训练之间的对比
    • 大模型预训练(Pre-training)
    • 大语言模型后训练(Post-Training)
      • 指令微调(Instruction Tuning)
      • 人类对齐(Human Alignment)
    • 扩展定律
      • KM扩展定律
      • Chinchilla扩展定律
      • 深入讨论
  • 涌现能力
    • 代表性能力
      • 指令遵循(Instruction Following)
      • 上下文学习(In-context Learning)
      • 逐步推理
  • 涌现能力与扩展定律的关系
  • 参考资料

什么是大语言模型

  • 定义:通常是指具有超大规模参数的预训练语言模型

与传统的语言模型相比,大语言模型的构建过程涉及到更为复杂的训练方法,进而展现了强大的自然语言理解能力和复杂任务求解能力(通过文本生成的形式)

  • 架构:主要作为Transformer解码器的架构
  • 训练:训练的内容包括预训练(base model)和后训练(instruct model)
    在这里插入图片描述

预训练和后训练之间的对比

在这里插入图片描述

大模型预训练(Pre-training)

  • 利用与下游任务无关的大规模数据进行模型参数的初始训练

主要的工作任务可以分成以下步骤:

  • 解码器架构+预测下一个词:这是由于GPT系列模型的出圈,该方法得到了有效的验证,已经成为了主流的大语言模型的技术路径
  • 大量的高质量的数据:为了预训练大语言模型需要进行大规模的文本数据,所以数据的数量,数据质量都是十分关键的

目前预训练的过程考虑各种细节,所以需要研发人员有丰富的训练经验和异常处理的能力,从而避免算力资源的浪费,提高模型预训练的成功几率

大语言模型后训练(Post-Training)

这一步可以理解为将一个泛化能力很强的模型不断去精修某一门技术,达到完成指定任务的能力,这一过程可以理解为大模型的微调过程
目前来讲比较常见的微调技术被称为指令微调SFT

指令微调(Instruction Tuning)

  • 使用输入与输出配对的指令数据对模型进行微调
  • 提升模型通过问答模式进行任务求解的能力
    在这里插入图片描述

人类对齐(Human Alignment)

除了要提升任务的解决能力,还需要将大语言模型与人类的期望,需求以及价值观对齐,这对于大模型的部署与应用具有重要的意义

  • 将大语言模型与人类的期望,需求以及价值观对齐
  • 基于人类反馈的强化学习对齐方法(RLHF)

在RLHF算法当中,需要标注人员针对大语言模型所生成的多条输出进行偏好排序,并使用偏好数据训练奖励模型,用于判断模型的输出质量
在这里插入图片描述

扩展定律

  • 通过扩展参数规模以及数据规模和计算算力,大语言模型的能力会出现显著的提升
  • 扩展定律在本次大模型的浪潮当中起到了至关重要的作用
    也就是说通过扩展带来的性能提升通常显著高于通过改进架构以及算法等方面所带来的改进,使得大语言模型的能力超越了小语言模型的能力
    在这里插入图片描述

KM扩展定律

由OpenAI团队所提出,首次建立了神经语言模型性能与参数规模(N),**数据规模(D)计算算力©**之间的幂律关系

在这里插入图片描述
L ( ⋅ ) L(\cdot) L()用来表示以 n a t nat nat(用来表示以 e e e为底信息量的自然对数)为单位的交叉熵损失,其中 N c , D c , C c N_c,D_c,C_c Nc,Dc,Cc是实验性常数数值,分别对应于非嵌入参数的数量,训练数据数量以及实际的算力开销

Chinchilla扩展定律

由DeepMind团队所提出的另一种形式的扩展定律

在这里插入图片描述
其中 a a a b b b决定了参数规模以及数据规模的资源分配优先级

  • 当a>b时,应该用更多的算力来提高参数规模
  • 当b>a时,应该利用更多的算力来提高数据规模

深入讨论

在这里插入图片描述
可预测扩展可以简单的理解为可以通过训练一个小模型去预测一个大模型的性能,这种方法其实很明显的问题就在于,模型的参数量大了的话那么很容易出现预测失败的问题
在这里插入图片描述
由于扩展法制存在一定的局限性,当模型的大小超过一定规模的时候,需要提出以下方法–涌现能力

涌现能力

非形式化的定义:在小型的模型当中并不存在但是在大模型当中出现的能力
这里可以我认为(不严谨哈)可以这样说:量变所引起的质变,由于模型的扩展超过一定的规模,使其能力得到了一定的提升(可以说是跃升)

在这里插入图片描述

代表性能力

也就是具有普遍性的一些能力

指令遵循(Instruction Following)

  • 大语言模型能够按照自然语言的指令来执行对应的任务
  • 可以通过高质量指令数据微调的方式习得一定的通用指令遵循能力
    在这里插入图片描述

上下文学习(In-context Learning)

  • 在提示当中为语言模型提供自然语言指令和任务示例,无需显式的训练或者梯度更新,仅通过输入文本的单词序列就能为测试样本生成预测的输出
    在这里插入图片描述

逐步推理

在大语言模型当中利用思维链的提示策略来加强推理性能

  • 在提示当中引入任务相关的中间推理步骤来加强复杂任务的求解,从而获得更加可靠的答案
    在这里插入图片描述

涌现能力与扩展定律的关系

在这里插入图片描述

参考资料

Datawhale学习链接:https://www.datawhale.cn/learn/content/107/3287

http://www.dtcms.com/wzjs/506741.html

相关文章:

  • django 做网站的代码小蝌蚪幸福宝入口导航
  • 网站建设修改建议书新闻稿发布平台
  • 服务器和网站的关系跨境电商平台
  • 昆明著名网站建设软件开发定制
  • 网站建设思路设计今日头条十大热点
  • 长春网站推广免费企业网站管理系统
  • 知识问答网站开发手游代理加盟哪个平台最强大
  • 网站建设的发展历程手机搜索引擎排行榜
  • 给企业做网站公司图片优化是什么意思
  • 小程序ui设计模板余姚seo智能优化
  • 营销型网站的建设著名的个人网站
  • 创造与魔法官方网站做自己宁波seo网络推广外包报价
  • 龙岗网站建设szaow常用的搜索引擎有
  • 网站如何运营管理怎么可以让百度快速收录视频
  • 如何做网页或网站香港seo公司
  • 如何做自己的网站表白爱站网挖掘关键词
  • wordpress如何站点关键词优化的策略
  • 上海网站建设网络公司百度招聘电话
  • word用来做网站的有没有免费的广告平台
  • 受欢迎的网站开发独立网站
  • 天津网站制作湖南网站设计外包服务
  • 任丘市做网站爱站网关键词挖掘查询
  • 网站建设哪家合适长沙网站推广
  • 柳州做网站吉林黄页电话查询
  • 做封面哪个网站好金戈枸橼酸西地那非
  • 宁波网站建设rswl万网注册域名
  • 优斗士做网站怎么样重庆seo排名技术
  • magento网站建设网络站点推广的方法有哪些
  • wordpress的html代码百度seo排名优
  • 个人做 网站2019百度今日小说搜索风云榜