当前位置: 首页 > wzjs >正文

开发公司支付前期物业开办费包括哪些内容seo网站营销公司哪家好

开发公司支付前期物业开办费包括哪些内容,seo网站营销公司哪家好,如何在苹果电脑中进行网站设置,软件开发公司需要什么硬件设备文章目录 说明一 LLM 简介二 Transformer 架构2.1 Transformer的架构组成2.1.1 输入嵌入 (Input Embedding)2.1.2 编码器 (Encoder) 的结构解码器 (Decoder) 的结构2.1.3 输出层 (Output Layer)结构 2.2 编码和解码器的独立输入理解 三 注意力机制 说明 本文适合初学者&#x…

文章目录

  • 说明
  • 一 LLM 简介
  • 二 Transformer 架构
    • 2.1 Transformer的架构组成
      • 2.1.1 输入嵌入 (Input Embedding)
      • 2.1.2 编码器 (Encoder) 的结构
      • 解码器 (Decoder) 的结构
      • 2.1.3 输出层 (Output Layer)结构
    • 2.2 编码和解码器的独立输入理解
  • 三 注意力机制

说明

  • 本文适合初学者,大佬请路过。

一 LLM 简介

  • 大预言模型(Large Language Models、LLM)是一种由包含数百亿以上参数的深度神经网络构建的语言模型,使用自监督学习方法通过大量无标注文本进行训练。
  • GPT(GenerativePre-trainedTransformer)是一种大语言模型,是生成式人工智能的重要框架。GPT模型是基于Transformer架构的人工神经网络,在未标记文本的大型数据集上进行预训练,能够生成新颖的类人内容。
  • 大语言模型的应用领域非常广泛,涵盖机器翻译、摘要生成、对话系统、文本自动生成等诸多领域。然而,大语言模型的使用也存在一些挑战和问题。首先,虽然大语言模型能够生成高度连贯和自然的文本,但没有自我意识和理解能力。其次,大语言模型的大规模训练数据集也使得其模型庞大而复杂,对计算资源要求较高,导致训练和部署成本相对较高。

二 Transformer 架构

  • 自然语言处理(Natural Language Processing,NLP)技术的发展是一个逐步迭代和优化的过程。Transformer的出现标志着自然语言处理进入一个新时代,特别是随着BERT和GPT等模型的推出,大幅提升了自然语言的理解和生成能力。
  • Transformer架构是一种基于注意力机制的深度学习模型,由谷歌的研究人员在2017年提出,被广泛应用于自然语言处理任务,如机器翻译、文本分类、情感分析等。
  • 目前的聊天模型都是基于Transformer架构开发的。ChatGPT的后端是基于GPT模型的,GPT模型通过在大规模文本数据上进行无监督预训练来学习语言的统计特征和语义。它使用自回归的方式,即基于前面已经生成的词来预测下一个词,来学习词之间的语义和语法关系,以及句子和文本的整体上下文信息。

  • Transformer架构由编码器(Encoder)和解码器(Decoder)组成,其中编码器用于学习输入序列的表示,解码器用于生成输出序列。GPT主要采用了Transformer的解码器部分,用于构建语言模型。

2.1 Transformer的架构组成

在这里插入图片描述

2.1.1 输入嵌入 (Input Embedding)

  • 在Transformer模型中,首先对输入文本进行处理以得到合适的文本表示。因为计算机无法直接处理自然语言,它需要将我们的输入转换为它能理解的数学形式,换言之,他会把每个词或字符编码成一个特定的向量形式。
  • 输入嵌入(input Embedding):文本中的每个单词都被转换为一个高维向量,这个转换通常是通过预训练的词嵌入模型(如Word2Vec、GloVe等)完成的。
  • 位置嵌入(Positional Embedding):标准的Transformer模型没有内置序列顺序感知能力,因此需要添加位置信息。这是通过位置嵌入完成的,它与词嵌入具有相同的维度,并且与词嵌入相加。

  • 输入序列:模型接收一个 token 序列作为输入,例如 “I love NLP”。
  • 嵌入查找
    • 每个 token 通过查找嵌入矩阵被转换为一个 d_model 维的向量。
    • 嵌入矩阵的维度为 (vocab_size, d_model),其中 vocab_size 是词汇表大小。
  • 位置编码添加
    • 生成与输入序列长度相同的位置编码矩阵,维度为 (seq_len, d_model)。
    • 位置编码与 token 嵌入逐元素相加,得到最终的输入表示。

数学表示 X = Embedding ( i n p u t ) + PositionalEncoding X = \text{Embedding}(input) + \text{PositionalEncoding} X=Embedding(input)+PositionalEncoding

2.1.2 编码器 (Encoder) 的结构

  • 每个编码器层包含以下子层:多头自注意力机制 (Multi-Head Self-Attention)、前馈神经网络 (Feed-Forward Network)

  1. 多头自注意力机制 (Multi-Head Self-Attention)
  • 线性变换:输入 X 通过三个不同的线性层生成 Q (查询)、K (键)、V (值) 矩阵。每个头的维度为 d k = d m o d e l / h d_k = d_model / h dk=dmodel/h,其中 h 是头数。

  • 注意力计算:计算缩放点积注意力: Attention ( Q , K , V ) = softmax ( Q K T d k ) V \text{Attention}(Q, K, V) = \text{softmax}(\frac{QK^T}{\sqrt{d_k}})V Attention(Q,K,V)=softmax(dk QKT)V。并行计算 h 个注意力头,将结果拼接后通过线性层投影。

  • 残差连接和层归一化 X attention = LayerNorm ( X + Attention ( X ) ) X_{\text{attention}} = \text{LayerNorm}(X + \text{Attention}(X)) Xattention=LayerNorm(X+Attention(X))

  1. 前馈神经网络 (Feed-Forward Network)
  • 两层线性变换:第一层将维度从 d_model 扩展到 d_ff (通常 2048 或 4096)。第二层将维度压缩回 d_model。之间使用 ReLU 激活函数。
  • 残差连接和层归一化 X out = LayerNorm ( X attention + FFN ( X attention ) ) X_{\text{out}} = \text{LayerNorm}(X_{\text{attention}} + \text{FFN}(X_{\text{attention}})) Xout=LayerNorm(Xattention+FFN(Xattention))

解码器 (Decoder) 的结构

  • 每个解码器层包含三个子层:掩码多头自注意力 (Masked Multi-Head Self-Attention)、编码器-解码器注意力 (Encoder-Decoder Attention)

  1. 掩码多头自注意力 (Masked Multi-Head Self-Attention)的掩码机制:防止解码器在训练时"偷看"未来的 token;通过将未来位置的注意力分数设置为 -∞ 实现。
  • 计算过程:与编码器自注意力类似,但增加了掩码。
  1. 编码器-解码器注意力 (Encoder-Decoder Attention):Q 来自解码器,K 和 V 来自编码器的最终输出;允许解码器关注输入序列的相关部分。
  2. 前馈神经网络:结构与编码器中的前馈网络相同。

2.1.3 输出层 (Output Layer)结构

  • 线性投影:将解码器输出投影到词汇表大小的维度。
  • Softmax 激活:生成每个 token 的概率分布。 P ( w ) = softmax ( W o X decoder + b o ) P(w) = \text{softmax}(W_o X_{\text{decoder}} + b_o) P(w)=softmax(WoXdecoder+bo)

2.2 编码和解码器的独立输入理解

  • 对于Transformer的输入处理部分,从架构图上编码器和解码器部分都有输入,因为在Transformer模型中,编码器(Encoder)和解码器(Decoder)各自有独立的输入。通常,在有监督学习的场景下,编码器负责处理输入样本,而解码器负责处理与之对应的标签,这些标签在进入解码器之前同样需要经过适当的预处理,这样的设置允许模型在特定任务上进行有针对性的训练。

三 注意力机制

  • 注意力机制就如字面含义一样,就像我们生活中一样,当开始做某一个事情时,通常会集中注意力在某些关键信息上,从而忽略其他不太相关的信息。对于计算机来说,transformer就是通过注意力机制解析上下文和理解不同语义之间的关系。
    在这里插入图片描述
  • 原始句子:The Animal didn’t cross the street because it was too tired。
  • 译为:因为动物太累了所以没有过马路。

  • it指代的是The Animal,然而,如果改变句子中的一个词,将tired替换为narrow,得到的新句子是The Animal didn't cross the street because it was too narrow(由于街道太窄,动物没有过马路),在这个新的句子中,itthe street。因此,模型需要能够理解当输入的句子改变时,句子中的词义也可能会随之改变。这种灵活性和准确性在Transformer模型中得到了体现。

  • Attention机制的工作原理可以这样形象化地描述:模型把每个词编码成一个向量,然后把这些向量送入模型中。在这里,每个词都会像发送条“询问”一样,去问其他词:“咱们之间的关系紧密吗?”,如果关系紧密,模型就会采取一种行动,反之则会采取另一种行动。不仅每个词都会发出这样的“询问”,而且也会回应其他词的“询问”。通过这样的一问一答互动,模型能够识别出每两个词之间的紧密关系。一旦这种关系被确定,模型就会把与该词关系更紧密的词的信息“吸收”进来,与其进行更多的信息融合。这样,比如在翻译任务中,模型就能准确地识别it应该翻译为animal,因为它的向量已经融合了与animal这个词紧密相关的信息。

  • 所以,注意力机制的核心就是要做重构词向量这样一件事。对于上面形象化的描述中,可以抽取出注意力机制的三要素:

    • Q:即Query,可以理解为某个单词像其他单词发出询问。
    • K:即Key,可以理解为某个单词回答其他单词的提问。
    • V:即Value,可以理解为某个单词的实际值,表示根据两个词之间的亲密关系,决定提取出多少信息出来融入自身。

  • T r a n s f o r m e r Transformer Transformer模型中, Q 、 K Q、K QK V V V是通过输入向量表示Transformer(x)与相应的权重矩阵 W q 、 W k 、 W v W_q、W_k、W_v WqWkWv进行矩阵运算得到的。这些权重矩阵最初是通过数学方法进行初始化的,然后在模型多轮训练的过程中逐渐更新和优化。目标是使得传入的数据与这些权重矩阵相乘后,能够得到最优化的Q、K和V矩阵。以Q为例,其第一个元素是通过输入向量x的第一行与权重矩阵W的第一列进行点乘和求和运算得到的。
  • 因此,在Q矩阵中的第一行实际上有这样的意义:它包含第一个词(与输入x的第一行对应)在查询其他词时所需的关键信息。同样地,K和V矩阵的计算逻辑与此相似。在K矩阵的第一行中存储的是第一个词在回应其他词的查询时所需的信息。而V矩阵的第一行所包含的是第一个词自身携带的信息。在通过Q和K确定了与其他词的关系后,这些存储在V中的信息被用来重构该词的词向量。
  • 在获取到Q、K、V之后,Attention执行如下操作: Attention ( Q , K , V ) = softmax ( Q K T d k ) V \text{Attention}(Q, K, V) = \text{softmax}(\frac{QK^T}{\sqrt{d_k}})V Attention(Q,K,V)=softmax(dk QKT)V。公式中除以 d k d_k dk是为了避免在计算向量的内积时,因为向量矩阵过大,计算出来的数值比较大。
    而非单纯的因为词之间的紧密程度这一问题。
  • 计算词的紧密程度
    在这里插入图片描述
  • 为什么 Q K T QK^T QKT矩阵就能表达词与词之间关系的紧密程度?
  • 这种计算方式在数学上叫向量的内积。向量的内积在向量的几何含义上表达的是:**内积越大,两个向量就更趋向于平行的关系,也就表示两个向量更加相似,当内积为0时,两个向量就会呈现垂直的关系,表示两个向量毫不相关。**对于Attention机制中这种Q和K一问一答的形式,问的就是两个词之间的紧密程度,所以可以通过内积的方式来衡量两个词之间的相似性。
  • 在这个过程中,可能都注意到了,它对自己也进行了提问,并且自己也给出了回答,为什么要这样做呢?
  • 例如The Animal didn’t cross the street because it was too tired(因为动物太累了,所以没有过马路),it正常来说作为代词,指代“它”,但在这个句子中,我们希望它指代是The Animal,所以它不把自己在这个句子中的重要性表现出来,不对自己的信息进行重构的话,它可能就没有办法改变自己原有的意思,也就无法从原本的意思“它”改为指代The Animal。也就是因为这种操作,所以在Transformer中的注意力机制被叫作Self-Attention(自注意力机制)。
  • 当衡量句子之间的紧密关系的结果出来之后,那么如何重构V?
  • 为解决如何量化决定哪些词贡献了多少信息。我们可以使用softmax函数对每一行进行归一化处理,softmax操作实质上是在量化地均衡各个词的信息贡献度。
  • 当得到了每个词之间的信息贡献度概率之后,重构V的过程转换成计算过程。从每个词中都会拿出部分信息,最终得到Z,通过这种计算形式得到的Z矩阵,每个位置就包含所有与之有关系的信息。这就是Transformer中自注意力机制中的计算过程。
    在这里插入图片描述
http://www.dtcms.com/wzjs/63627.html

相关文章:

  • 建个网站有收八大营销模式有哪几种
  • 网站建设和源代码问题app广告推广
  • 哪个基层司法所网站做的比较好外包公司值得去吗
  • 网站预付款怎么做会计分录电脑培训零基础培训班
  • wordpress管理网站长春seo外包
  • 外贸推广哪个公司好杭州seo软件
  • 网页设计 网站建设 哪个好58同城网站推广
  • 马鞍山制作网站宁波seo网站推广软件
  • 麦田 网站建设网络营销的重要性与意义
  • 网站的建设哪个好十大免费cms建站系统介绍
  • 阿里巴巴属于b2b还是b2c新十条优化措施
  • 北京企业建设网站公司seo工作内容
  • 商丘做网站的价格深圳seo优化推广公司
  • 做pc端网站价格软文推广收费
  • 自己做的网站放在服务器哪里关键词林俊杰百度云
  • 企业网站建设一般要素上海百度提升优化
  • 成都程序员网站关键词优化公司如何选择
  • 高明网站开发广告加盟
  • 开发app开发公司福州seo按天收费
  • 上海有多少家网站建设公司seo排名优化排行
  • 钱包网站建设数据分析师一般一个月多少钱
  • 甘肃做网站的网络公司中国宣布疫情结束日期
  • 网站 首页布局 seo软件外包公司有前途吗
  • wordpress最新版新建页面选择模板如何网站关键词优化
  • 萧山品牌网站建设各大网站推广平台
  • 西丽做网站广州网络推广万企在线
  • 中国建设网官方网站济宁国泰数据分析培训班
  • tp框架做响应式网站cilimao磁力猫在线搜索
  • 网站流媒体播放如何做网络软营销
  • 网站建设网页优秀的网页设计案例