当前位置: 首页 > wzjs >正文

网站优化 推广物联网网站设计

网站优化 推广,物联网网站设计,photoshop网页版入口,个人网站建设方案书 学生参考网站:什么是自回归模型 | IBM 基本说明: AR是一种强大的最常用于时间序列分析和预测的机器学习技术,使用时间序列先前时间步长的一个或者多个值来创建回归模型。 用同一变数例如x的之前各期,亦即x1至xt-1来预测本期xt的表现…

参考网站:什么是自回归模型 | IBM

基本说明:

AR是一种强大的最常用于时间序列分析和预测的机器学习技术,使用时间序列先前时间步长的一个或者多个值来创建回归模型。

用同一变数例如x的之前各期,亦即x1至xt-1来预测本期xt的表现,并假设它们为一线性关系。因为这是从回归分析中的线性回归发展而来,只是不用x预测y,而是用x预测 x(自己);所以叫做自回归。


   自回归模型假设当前时刻的数据仅依赖于历史时刻的数据,通过条件概率分解序列的联合分布:                             ​​​​​​​        ​​​​​​​        ​​​​​​​  

其中: c是常数项;被假设为平均数等于0,标准差等于的随机误差值;被假设为对于任何的t都不变。文字叙述为:X的期望值等于一个或数个落后期的线性组合,加常数项,加随机误差。


生成过程

  1. 逐步预测:每次基于已生成的部分序列预测下一个元素(如GPT通过上文预测下一个词)。

  2. 迭代采样:通过随机采样(如从softmax分布中采样)或贪婪搜索生成新元素,并将新元素反馈到模型中以继续生成后续内容。

  3. 典型架构:Transformer的解码器(如GPT)或因果卷积网络(如WaveNet),通过掩码机制确保仅依赖历史信息。


实际应用中的主要限制

  1. 计算效率问题

    • 序列长度限制:生成长度为$N$的序列需$N$次前向计算,导致延迟高(如长文本生成)。

    • 内存瓶颈:Transformer的注意力机制内存消耗随序列长度平方增长($O(N^2)$)。

  2. 长程依赖建模困难

    • 尽管Transformer优于RNN,但远距离依赖仍可能因注意力权重分散或梯度消失而失效(如生成连贯的长文档)。

  3. 误差累积与暴露偏差

    • 训练-测试不一致:训练时使用真实历史数据(Teacher Forcing),而测试时依赖模型自身生成的历史,错误会逐步累积(Exposure Bias)。

    • 模式坍塌:倾向于生成高频但低多样性的内容(如重复短语)。

  4. 可控生成挑战

    难以精确控制生成内容的属性(如情感、风格),需额外引入约束或后处理。

改进技术手段

  1. 效率优化

    • 稀疏注意力:如Longformer的局部+全局注意力、Reformer的局部敏感哈希(LSH)注意力,将复杂度降至$O(N\log N)$。

    • 分块生成:将序列分段处理(如Image Transformer对图像分块)。

    • 模型蒸馏:训练小型化模型(如DistilGPT-2)保持性能的同时减少计算量。

  2. 长序列建模改进

    • 记忆机制:如Transformer-XL通过循环记忆模块保留跨段信息。

    • 递归结构:将Transformer与RNN结合(如Compressive Transformer)增强长程记忆。

  3. 缓解误差累积

    • 计划采样(Scheduled Sampling):逐步混合训练时的真实输入与模型生成输入。

    • 强化学习:通过策略梯度(如RLHF)直接优化生成序列的整体质量。

  4. 可控生成技术

    • 条件控制:在输入中嵌入控制信号(如CTRL模型的领域控制前缀)。

    • 解码约束:束搜索(Beam Search)中引入禁止重复n-gram等规则。

    • 能量模型:如GeDi通过辅助模型引导生成方向。
    • 并行化生成

      • 非自回归模型(NAR):如Mask-Predict通过迭代掩码预测实现并行解码(牺牲部分质量换取速度)。

      • 半自回归:部分步骤并行化(如Blockwise Parallel Decoding)。


自回归和回归区别:

特性自回归模型 (AR)非自回归模型 (NAR)
生成方式逐步生成,严格顺序依赖并行生成,一步预测所有位置
速度慢(需$O(N)$次前向计算)快(仅需$O(1)$次前向计算)
质量高质量,上下文连贯可能因独立性假设降低连贯性
训练目标最大化似然$P(x_t|x_{<t})$直接建模$P(x_{1:T}|c)$(c为条件)
典型模型GPT、Transformer-DecoderBART、T5、Masked-LM
应用场景文本生成、音乐生成机器翻译、文本摘要(需快速场景)

# 自回归生成(顺序)
for t in range(T):x_t = model(x_<t)  # 依赖历史# 非自回归生成(并行)
x_1:T = model(c)       # 直接输出全部序列

应用场景

1. 自回归模型
  • 自然语言生成:GPT-3的故事创作、ChatGPT的对话生成。

  • 时间序列预测:股票价格预测(ARIMA)、天气建模。

  • 语音合成:WaveNet生成逼真语音波形。

  • 代码生成:GitHub Copilot的代码补全。

2. 非自回归模型
  • 机器翻译:Google的NAT(Non-Autoregressive Translation)。

  • 文本摘要:快速生成摘要(如BART的并行解码)。

  • 图像生成:部分扩散模型的并行去噪步骤。


代码示例:

import torch
import torch.nn as nnclass ARModel(nn.Module):def __init__(self, vocab_size, hidden_size):super().__init__()self.embed = nn.Embedding(vocab_size, hidden_size)self.rnn = nn.LSTM(hidden_size, hidden_size)self.head = nn.Linear(hidden_size, vocab_size)def forward(self, x):# x: [seq_len, batch_size]x = self.embed(x)  # [seq_len, batch_size, hidden_size]outputs, _ = self.rnn(x)return self.head(outputs)  # [seq_len, batch_size, vocab_size]# 生成示例(贪婪搜索)
def generate_ar(model, start_token, max_len):tokens = [start_token]for _ in range(max_len):logits = model(torch.tensor([tokens[-1]]))  # 预测下一步next_token = logits.argmax(-1).item()       # 贪婪选择tokens.append(next_token)return tokens


文章转载自:

http://oy8BnpxO.zrLwL.cn
http://zxa5iuEz.zrLwL.cn
http://v7fius0J.zrLwL.cn
http://yS9yzf33.zrLwL.cn
http://RhVDglEG.zrLwL.cn
http://kraR5stQ.zrLwL.cn
http://IHXVDiAM.zrLwL.cn
http://Nq0uIXEj.zrLwL.cn
http://iylfCk4B.zrLwL.cn
http://UfYXj8Jv.zrLwL.cn
http://zTAlhvRm.zrLwL.cn
http://PFkRFp7j.zrLwL.cn
http://xUNhJOXj.zrLwL.cn
http://F3tdfJoK.zrLwL.cn
http://VdH9xKeA.zrLwL.cn
http://ZYJIN9Eo.zrLwL.cn
http://KwabHcP4.zrLwL.cn
http://vgR52cmW.zrLwL.cn
http://v2IRwNS7.zrLwL.cn
http://6B7uZUTs.zrLwL.cn
http://8utNMzXh.zrLwL.cn
http://4Aw7y9la.zrLwL.cn
http://UEfczUHH.zrLwL.cn
http://5MsHu7z9.zrLwL.cn
http://eKRolqAk.zrLwL.cn
http://cFx96r1X.zrLwL.cn
http://D7kXYTZO.zrLwL.cn
http://awTm1Wmw.zrLwL.cn
http://PTVf5edI.zrLwL.cn
http://ApF3CxHq.zrLwL.cn
http://www.dtcms.com/wzjs/627251.html

相关文章:

  • 个人网站模板h5阜阳哪里做网站的多
  • 手机企业网站如何建设wordpress 分页
  • 工信部网站备案怎么查中企动力属于国企吗
  • 石家庄鹿泉网站建设it运维管理系统
  • 阿里巴巴国际站怎么开店网页制作格式
  • dede减肥网站源码郑州网站制作生产厂商定制
  • 坪山网站建设行业现状整合营销方案
  • 做dj网站能赚钱吗中国建设银行官网下载中心
  • 域名同时做邮箱和网站成品短视频app下载有哪些软件
  • 做网站要什么专业wordpress 搜索词
  • 旅游宣传网站建设方案百度搜索引擎入口官网
  • 企业网站备案域名信息wamp搭建wordpress
  • 做网站用什么软件温州论坛官方网
  • 抚州网站网站建设河南省建设部网站
  • 如何做自适应网站互联网传媒公司
  • 好的做淘宝详情页的网站有哪些58同城网站建设
  • 用什么网站开发短链短网址在线生成工具
  • 交流做病理切片的网站wordpress二次开发函数
  • 宿州高端网站建设公司哪家好建设部人才网站
  • 互联网网站制作公司哪家好wordpress4.0.6 漏洞
  • 网站开发项目技能比赛获奖报道适合30岁女人的培训班
  • 企业网站seo优帮云wordpress设计笔记
  • 无锡工程建设信息网站二级域名站群
  • 崇信县网站留言乐享校园网站建设策划书
  • 网站建设费用主要包括那几项wordpress 自动安装 插件
  • 网站建设需要考什么证学生网页设计作品欣赏
  • 找设计公司上哪个网站企业建站系统免费
  • 网站建设愿景网页设计教程读后感
  • 怎么查网站备案域名备案信息公司合法网站域名怎么注册
  • 佛山seo网站推广结婚证制作生成器app