当前位置: 首页 > news >正文

白话FNN、RNN、Attention和self-attention等

我尝试同过炸酱面的例子,让所有人都能理解Transformer的核心Self-Attention。你在做老北京炸酱面的酱,食谱包括一系列步骤:准备食材(干黄酱、甜面酱、猪肉、葱姜等)、洗菜、切菜(葱姜蒜等)、炒肉,调和干黄酱、甜面酱、凉水、酱油后,加入锅中,慢炖成酱。我们将从FNN开始讲起,最终讲到Self-Attention,每个算法将以不同的方式处理这个食谱,从简单的单步处理到复杂的全局优化,模拟从新手到大师级厨师的进化。

炸酱面版

新厨子:处理独立、静态输入的FNN

FNN全称是Feedforward Neural Network,前馈申请网络。FNN是最简单的神经网络,像一个完全新手的厨子,只看当前的步骤,没有前后的步骤的记忆和关联。一个新手厨子第一次拿到菜谱后,就开始按照菜谱做饭,看一一步做一步,每一步都是独立的,比如看到了“切葱”的步骤,就只看到切葱的输入粗细,长短等,输出就是切成小段的细葱丝。但是他并不管前面的步骤,也不管后面的步骤。如果前面一步洗葱,如果并没有洗就切葱了,葱上如果有泥。如果后面的步骤是200度热油炒香葱丝,那么如果葱丝切的很细,下锅就糊了。这就如同一个手忙脚乱的新厨师,只能按照每一步指令干活,只顾眼前。这样的优点就是每一个步骤都简单,适合独立步骤的任务。但是由于忽略的步骤的连续性,如果食谱是“1. 洗葱;2. 切葱;3. 炒肉”,FNN把每步当独立任务,可能导致错误:没洗就切,葱不干净;或切得太细,下锅一炒就糊了。那么这炒酱的工作是一个连续性的工作,FNN无法处理好这种有序列性的工作,就像新手不懂整体流程。需要能记住前因后果的模型,引出RNN。

<
http://www.dtcms.com/a/354190.html

相关文章:

  • 《从有限元到深度学习:我的金属疲劳研究进阶之路》
  • 反内卷加速全产业链价值重塑 通威股份等行业龙头或率先受益
  • 基于 C# OpenCVSharp 的模板匹配检测技术方案
  • 计算机日常答疑,一起寻找问题的最优解
  • select
  • SM4加密算法
  • Karatsuba
  • 前端工程化与AI融合:构建智能化开发体系
  • 4-4.Python 数据容器 - 字典 dict(字典 dict 概述、字典的定义与调用、字典的遍历、字典的常用方法)
  • CPU 虚拟化之Cpu Models
  • 代码随想录刷题Day43
  • 时间轮定时器HashedWheelTimer
  • WSL设置静态IP
  • window程序打包
  • Libvio网站与客户端访问故障排查指南(专业版)
  • 什么是低空经济?
  • JMeter 5.3 性能测试:文件下载脚本编写与导出文件接收完整指南
  • QT鼠标事件中的QMouseEvent :e
  • 深度学习---卷积神经网络CNN
  • PLC_博图系列☞基本指令”S_ODT:分配接通延时定时器参数并启动“
  • HTML5超详细学习内容
  • 程序(进程)地址空间(1)
  • 基于MATLAB/Simulink的单机带负荷仿真系统搭建
  • LeetCode-23day:技巧经典
  • 疯狂星期四文案网第52天运营日记
  • 野火STM32Modbus主机读取寄存器/线圈失败(二)-解决CRC校验错误
  • 让ai写一个类github首页
  • Web前端之JavaScript时间体系全解析、performance、Date、now
  • Go语言循环性能终极对决:for vs range 深度剖析
  • 如何用Postman做接口测试?