当前位置: 首页 > news >正文

Self Attention自注意力机制

李宏毅: 《机器学习》 学习笔记

Vector Set as Input

一段文本

在这里插入图片描述

一段声音信号

x

社交图

在这里插入图片描述

分子图

在这里插入图片描述



Output

each vector has a label(sequence labeling)

在这里插入图片描述

the whole sequence has a label

在这里插入图片描述

model decides the num of labels itself(seq2seq)

在这里插入图片描述



self-attention

sequence labeling 为例:
在这里插入图片描述

self-attention

在这里插入图片描述

Truncated self-attention

通常我们不需要self-attention 一整个句子,只关注其中一部分,这样可以加快运算的速度。
在这里插入图片描述

self-attention for Image

self-attention GAN
DEtection Transformer(DETR)

相关文章:

  • 使用 Docker Compose 从零部署 TeamCity + PostgreSQL(详细新手教程)
  • Ubuntu 系统通过防火墙管控 Docker 容器
  • 【PyQt5】用于设置控件位置的参数
  • 【Kotlin】注解反射扩展
  • [大A量化专栏] 夏普比率
  • Linux 下的COW机制(copy-on-write)
  • android app 一个 crash的解决过程!
  • 26.【新型数据架构】-零ETL架构
  • python打卡day46@浙大疏锦行
  • 【驱动】Orin NX恢复备份失败:does not match the current board you‘re flashing onto
  • 数列运算中的常见错因分析
  • java学习电子书推荐
  • 密码学基础——SM4算法
  • 408第一季 - 数据结构 - 栈与队列的应用
  • Cesium等高线
  • 【GESP真题解析】第 14 集 GESP 三级 2024 年 9 月编程题 1:平衡序列
  • Python打卡第46天
  • 猜字符位置游戏-position gasses
  • STM32标准库-TIM输出比较
  • SAP ABAP LOOP GROUP BY 分组循环的使用方法
  • 做外卖那些网站好/广州网站优化方式
  • 胶州城乡建设局网站/b2b平台是什么意思
  • 云南省网站开发/交换神器
  • 软件开发外包公司靠谱吗/肇庆seo按天计费
  • 建站快车金牌代理商/长沙哪家网络公司做网站好
  • 网站建设专家收费标准/百度指数专业版价格