当前位置: 首页 > wzjs >正文

网站关键词密这么稀释口碑营销策划方案

网站关键词密这么稀释,口碑营销策划方案,网站建设公司售后客服人员要求,2013我国中小企业接入互联网和网站建设情况LLM概述 从AI到 Transformer 的嵌套技术集合AI 尽管对AI的理解有所不同,但大体上,人们认为它让计算机系统有能力执行那些通常需要人类智慧的任务。根据这个定义,许多算法可以被归为AI算法,比如导航应用程序所用的交通预测算法或策…

LLM概述

从AI到 Transformer 的嵌套技术集合

从AI到 Transformer 的嵌套技术集合

AI

尽管对AI的理解有所不同,但大体上,人们认为它让计算机系统有能力执行那些通常需要人类智慧的任务。根据这个定义,许多算法可以被归为AI算法,比如导航应用程序所用的交通预测算法或策略类电子游戏所用的基于规则的系统。

ML

ML(machine learning 机器学习) 是AI的一个子集。在 ML 中,我们不试图直接实现AI系统使用的决策规则,而是试图开发算法,使系统能够通过示例自己学习。

DL和ANN

在这些 ML 算法中,深度学习(deep learning,DL)算法已经引起了广泛关注。DL 是 ML 的一个分支,专注于受大脑结构启发的算法。这些算法被称为人工神经网络(artificial neural network,ANN)。它们可以处理大量的数据,并且在图像识别、语音识别及 NLP 等任务上表现出色。

Transforme

Transformer是一种特定的神经网络架构。2017 年,来自谷歌的Vaswani 等人在论文“Attention Is All You Need”中提出了该架构。Transformer 就像阅读机一样,它关注句子或段落的不同部分,以理解其上下文并产生连贯的回答。此外,它还可以理解句子中的单词顺序和上下文意思。这使得 Transformer 在语言翻译、问题回答和文本生成等任务中非常高效。

NLP

**NLP(Natural Language Processing,自然语言处理)**是ML和AI的一个子领域。它专注于使计算机能够处理、解释和生成人类语言。现代 NLP 解决方案的基础是 ML 算法。NLP 的目标是让计算机能够处理自然语言文本。

LLM

LLM (Large Language Model 大语言模型) 是试图完成文本生成任务的一类ML 模型。LLM 使计算机能够处理、解释和生成人类语言,从而提高人机交互效率。为了做到这一点,LLM 会分析大量文本数据或基于这些数据进行训练,从而学习句子中各个单词间的模式和关系。这个学习过程可以使用各种数据源,包括维基百科、Reddit、成千上万本书,甚至互联网本身。这一学习过程使 LLM 能够在接收到输入文本后,预测最可能出现的下一个单词,从而生成连贯且有意义的回复。 LLM 具有大量的内部参数,在训练过程中,构建该模型的算法会不断寻找最优参数,以使模型能够对下一个单词做出最佳预测。现代语言模型,如最新的GPT 模型,规模庞大且经过海量文本训练,因此如今能够直接执行大多数 NLP 任务,例如文本分类、机器翻译、问答等。

RNN 和 LSTM

最初的语言模型较为简单,它通过统计前几个单词的出现频率来预测句子中的下一个单词。在训练文本中,模型会选择最常出现在前序单词之后的单词作为预测结果。
为了提升模型的性能,更先进的学习算法被引入,例如循环神经网络(recurrent neuralnetwork,RNN)长短时记忆网络(long short-term memory,LSTM)。与早期的模型相比,这些模型能够学习更长的序列,并更好地分析上下文信息。然而,它们在处理大规模数据时仍然存在效率问题。尽管如此,RNN 在很长一段时间内仍然是最有效的模型之一,因此被广泛应用于机器翻译等工具中。

为什么是Transformer架构?

从NLP技术到LLM的演变

NLP 技术从 [插图] 到 LLM 的演变

突破RNN的局限

Transformer 架构彻底改变了 NLP,主要原因在于它成功解决了 RNN 等早期模型的关键局限:难以处理较长的输入文本序列,并在长距离依赖中保持上下文信息。换句话说,RNN 在处理较长文本时容易遗忘前文内容,而 Transformer 通过自注意力(self-attention)机制,能够有效捕捉和编码全局上下文,从而显著提升文本理解与生成能力。

注意力机制

这场变革的核心是注意力机制(attentionmechanism),一个简单却极其强大的概念。相比于将文本序列中的所有单词视作同等重要,注意力机制允许模型在每一步任务中“关注”相关性最高的词。这使得文本中相距较远的元素可以直接建立联系,例如句子的最后一个单词可以“关注”第一个单词,而不会受到距离限制,从而克服了 RNN 等早期模型难以捕捉长距离依赖的局限性。在这一机制的基础上,又衍生出了交叉注意力(cross-attention)和自注意力两种架构模块,它们在 LLM 中被广泛应用。而Transformer 架构正是充分利用了这些模块,从而大幅提升了模型的文本理解与生成能力。

并行化优势

与循环架构不同,Transformer 架构还具有易于并行化的优势。这意味着 Transformer 架构可以同时处理输入文本的多个部分,而不是按顺序逐步处理。由于不同部分的计算可以并行进行,而无须等待前一步骤完成,这大大加快了计算和训练速度。基于 Transformer 架构的模型的并行处理能力与图形处理单元(graphics processingunit,GPU)的架构完美契合,GPU 的设计旨在同时处理多个计算任务,因此非常适合用于训练和运行基于 Transformer 架构的模型。GPU 的高并行性和强大的计算能力使数据科学家能够在更大规模的数据集上训练模型,从而推动了 LLM 的发展。

编码器和解码器

Transformer 架构是一种序列到序列(sequence-to-sequence,Seq2Seq)的模型,最初是为机器翻译等序列到序列任务而开发的。标准的Transformer 架构有两个主要组件:编码器和解码器,二者都十分依赖注意力机制。编码器的任务是处理输入文本,识别有价值的特征,并生成有意义的文本表示,称为嵌入(embedding)。 解码器使用这个嵌入来生成一个输出,比如翻译结果或摘要文本。这个输出有效地解释了编码信息。

GPT

GPT(Generative Pre-trained Transformer,生成式预训练 Transformer)是一类基于Transformer 架构的模型,专门利用原始架构中的解码器部分。在 GPT 中,不存在编码器,因此无须通过交叉注意力机制来整合编码器产生的嵌入。也就是说,GPT 仅依赖解码器内部的自注意力机制来生成上下文感知的表示和预测结果。请注意,BERT 等其他一些众所周知的模型是基于编码器的。

参考文献
《大模型应用开发极简入门:基于GPT-4和ChatGPT(第2版)》

http://www.dtcms.com/wzjs/225336.html

相关文章:

  • 做网站用母版页不好么中国新冠一共死去的人数
  • 网站建设培训公司新东方教育培训机构官网
  • 网页制作与网站建设实战大全 pdf下载南京seo网站优化
  • 网页制作与设计先学什么3seo
  • windows10系统优化上海百度seo牛巨微
  • 广州电商网站开发链接买卖价格
  • 无忧商务网灯塔网站seo
  • 绵阳银行网站建设关键词挖掘网站
  • 动易做网站海口网站排名提升
  • 做淘宝店标的网站上海推广系统
  • 海南代理注册公司费用西安网站seo
  • 免费网站制作模板域名停靠网页推广大全
  • 公司网站建设的分类关键词查询工具
  • 河北省住房城乡建设厅网站广西壮族自治区免费百度推广
  • 做网站的具体内容百度网络营销app
  • 自己做网站写文章谷歌google play官网下载
  • 哪些网站可以做网店品牌运营公司
  • 怎么给汽车网站做推广专业营销策划团队
  • 网站开发模板代码怎么做一个网站页面
  • 怎么自己做直播网站吗百度2020新版下载
  • 网站备案正常多久新网站如何推广
  • 在线下单网站怎么做百度下载并安装到桌面
  • 阿里云做网站需要环境营销管理系统
  • 购买网站服务如何做支出超级外链推广
  • 深圳网站制作收费正规网站优化哪个公司好
  • 大学网站建设策划书百度快照下载
  • 外贸行情seo推广招聘
  • 互联网企业解决方案seo引擎优化
  • 网站建设没有预付款武汉网站制作
  • 做黄网站有哪些创意广告