当前位置: 首页 > wzjs >正文

个人网站要怎么做军事最新消息

个人网站要怎么做,军事最新消息,无锡网页设计培训公司,安阳网站建设哪家便宜背景 本文内容还是对之前关于面试题transformer的一个延伸,详细讲解一下softmax 面试常问系列(二)-神经网络参数初始化之自注意力机制-CSDN博客 Softmax函数的梯度特性与输入值的幅度密切相关,这是Transformer中自注意力机制需要缩放点积结果的关键原…

背景

本文内容还是对之前关于面试题transformer的一个延伸,详细讲解一下softmax

面试常问系列(二)-神经网络参数初始化之自注意力机制-CSDN博客

Softmax函数的梯度特性与输入值的幅度密切相关,这是Transformer中自注意力机制需要缩放点积结果的关键原因。以下从数学角度展开分析:

1. Softmax 函数回顾

给定输入向量 z = [z₁, z₂, ..., zₖ],Softmax 输出概率为:

\sigma(z)_i = \frac{e^{z_i}}{\sum_{j=1}^{k}e^{z_j}} =\frac{e^{z_i}}{S},S=\sum_{j=1}^{k}e^{z_j}                        

其中 S 是归一化因子。

2. 梯度计算目标

计算 Softmax 对输入 z 的梯度,即 \frac{\delta \sigma_i}{\delta z_j}对所有 i,j∈{1,…,k}。

3. 梯度推导

根据链式法则,对 σi​ 关于 zj​ 求导:

\frac{\delta \sigma_i}{\delta z_j} = \left\{\begin{matrix} &\sigma_i(1-\sigma_j)) &if &i=j, \\ & -\sigma_i\sigma_j &if &i\neq j, \end{matrix}\right.

具体推到过程就不展示了,感兴趣的有需要的可以评论下。因为本次重点不是通用的softmax分析,而是偏实战分析。

4. 与交叉熵损失结合的梯度

在实际应用中,Softmax 通常与交叉熵损失L = \sum_{i=1}^{n}y_i*log\sigma_i 结合使用。此时梯度计算更简单:

\frac{\partial L }{\partial z_j} = \sigma(z_j)-y_j

其中 y_j是真实标签的 one-hot 编码。

5. 推导

  1. 交叉熵损失对 ​\sigma_i 的梯度:

\frac{\partial L }{\partial\sigma_i} = -\frac{y_i}{\sigma_i}

    2. 通过链式法则:

\frac{\partial L }{\partial z_j} =\sum_{i} \frac{\partial L }{\partial \sigma_i}\frac{\partial \sigma_i }{\partial z_j}=\sum_{i} -\frac{y_i }{\sigma_i}\frac{\partial \sigma_i }{\partial z_j}

    3. 代入在上面求解出的\frac{\delta \sigma_i}{\delta z_j}

  • i = j时,\frac{\partial L }{\partial z_j} =-\frac{y_i }{\sigma_j}*\sigma_j(1-\sigma_j)=-y_i*(1-\sigma_j)
  • i \neq j时,\frac{\partial L }{\partial z_j} =\sum_{i\neq j}-\frac{y_i }{\sigma_j}*(-\sigma_i\sigma_j)=\sigma_j*\sum_{i\neq j}{y_i}

    4.合并上述结果

\frac{\partial L }{\partial z_j} =-y_j*(1-\sigma_j) + \sigma_j*(1-y_j)=\sigma_j-y_j

6. 梯度消失问题

  • 极端输入值:若z_k远大于其他z_i,则\sigma (z_k) \approx 1,其他\sigma (z_i) \approx 0。此时:
    • z_k的梯度:-y_k*(1-\sigma_{z_k}) \approx 0(若yk​=1,梯度接近0)。
    • 对其他zi​的梯度:\sigma (z_i) \approx 0, \sigma_j*\sum_{i\neq j}{y_i} \approx 0,梯度趋近于0。
  • 后果:梯度消失导致参数更新困难,模型难以训练。

7. 缩放的作用

在Transformer中,点积结果除以dk​​后:

  • 输入值范围受限:缩放后z_i的方差为1,避免极端值。
  • 梯度稳定性提升\sigma (z_i)分布更均匀,-y_k*(1-\sigma_{z_k})\sigma (z_i)不会趋近于0,梯度保持有效。

5. 直观示例

  • 未缩放:若dk​=512,点积标准差结果可能达±22,Softmax输出接近0或1,梯度消失。
  • 缩放后:点积结果范围约±5,σ(zi​)分布平缓,梯度稳定。
  • 这个示例在最开始的跳转链接有详细解释,可以参考。

总结

Softmax的梯度对输入值敏感,过大输入会导致梯度消失。Transformer通过除以dk​​控制点积方差,确保Softmax输入值合理,从而保持梯度稳定,提升训练效率。这一设计是深度学习中处理高维数据时的重要技巧。

http://www.dtcms.com/wzjs/501752.html

相关文章:

  • 陕西省城乡住房和建设厅网站鼓楼网页seo搜索引擎优化
  • 网站开发需求分析文档百度推广投诉电话
  • 济南做网站找大标可以看任何网站的浏览器
  • 线上推广渠道和方式百度小程序对网站seo
  • 武汉做网站seo广州市疫情最新情况
  • 网站建设管理情况说明微信营销技巧
  • 学网站建设前途网络营销策略的制定
  • 商丘企业做网站网络营销和电子商务区别
  • 做像百姓网这样网站多少钱百度提交网站入口
  • 承装承修承试材料在哪个网站做seo搜索引擎优化是什么
  • 江西省建设监理网站b站推出的短视频app哪个好
  • 上海网站建设市场分析小企业广告投放平台
  • app免费开发平台有哪些windows7系统优化工具
  • 网站建设做网站好吗中国十大电商平台有哪些
  • 怎么样做兼职网站app定制开发
  • 住房和城乡建设部主网站痘痘怎么去除有效果
  • 做网站公司的商标需要注册吗百分百营销软件
  • 企业做网站有什么用bilibili推广网站
  • 福安市住房和城乡建设网站今日时政新闻热点
  • 企业网站推广湖南岚鸿推广中国互联网公司排名
  • 东莞wordpress建站网站模板免费下载
  • 千锋前端培训多少钱武汉seo论坛
  • 网站建设交印花税零基础seo入门教学
  • 那些网站上可以做任务赚钱 》今日新闻最新头条10条
  • 企业网站案例欣赏淘宝关键词优化技巧教程
  • 北京网站制作报价百度公司高管排名
  • 福建省建设注册执业资格管理中心网站1688自然排名怎么做好
  • sql server做网站希爱力的功效及副作用
  • CSS做网站下拉菜单被图片挡住了如何免费制作网站
  • 前端做网站都要做哪些推广app的方法和策略