当前位置: 首页 > wzjs >正文

wordpress改造成mip站专业做俄语网站建设

wordpress改造成mip站,专业做俄语网站建设,营销型网站建设评价,汕头品牌建设公司一、摘要 本文介绍2025年5月由微软牵头发表的论文《WINA: Weight Informed Neuron Activation for Accelerating Large Language Model Inference》。 摘要: 大型语言模型(LLM)不断增长的计算需求,使得高效推理和激活策略变得愈发…

一、摘要

        本文介绍2025年5月由微软牵头发表的论文《WINA: Weight Informed Neuron Activation for Accelerating Large Language Model Inference》。

摘要:

        大型语言模型(LLM)不断增长的计算需求,使得高效推理和激活策略变得愈发关键。虽然诸如专家混合(MoE)等近期方法利用了选择性激活,但需要专门的训练,而免训练的稀疏激活方法通过即插即用的设计,具备更广泛的适用性和卓越的资源效率。然而,许多现有方法仅依赖隐藏状态的大小来确定激活,这导致了较高的近似误差和不理想的推理准确性。为解决这些局限性,我们提出了WINA(权重感知神经元激活),这是一种新颖、简单且免训练的稀疏激活框架,它同时考虑隐藏状态的大小和权重矩阵的列方向ℓ2范数。我们证明,这会产生一种稀疏化策略,该策略能获得最优的近似误差界,且理论保证比现有技术更严格。在实证方面,在相同的稀疏度水平下,WINA在多种LLM架构和数据集上的平均性能比最先进的方法(如TEAL)高出2.94%。这些结果使WINA成为LLM推理中免训练稀疏激活的新性能前沿,推动了免训练稀疏激活方法的发展,并为高效推理设定了坚实的基线。

二、核心创新点

        作者指出,大模型不断增大的规模和复杂性使得控制计算成本的挑战也不断变大,如何在不降低输出质量的前提下降低推理成本成为了核心问题。一种策略是在推理过程中,使用MoE混合专家架构仅激活完整模型中的一个子网络,但这种策略依赖大量的训练。另一种策略是无需训练的稀疏激活,它保留原始的稠密模型,但在推理时选择性地忽略权重或者神经元,通过利用权重重要性、隐藏状态变化范围等标准来确定停用模型的哪些部分,从而加快推理,但这种方式忽略了权重矩阵对误差传播的影响,即未能考虑前向传播过程中输入元素与权重矩阵之间的相互作用如何影响模型输出,从而导致在稀疏激活中累积近似误差。

        由此,作者提出了无需训练的WINA框架,这个框架基于隐藏状态的幅度和权重矩阵的列项L2范数执行稀疏激活(每一层输入中的非必要成分将被置为 0 )。通过将激活强度和权重重要性相结合,使得阈值能够直接反映每个激活对下一层的影响程度,由此实现了对稀疏性的更精细的控制,并对最终的近似误差设置了更严格的界限。

2.1 问题陈述

        考虑一个由L层组成的深度神经网络M。对于,将第  层的权重矩阵表示为,相应的输入表示为任意张量,其代表完整的信息内容。作者的目标是确定一组二进制激活门,其中每个,使得模型的原始输出与门控输出之间的偏差最小化:

        由于获取完整的可能输入集X通常是不可行的,作者改用一个采样子集来近似它。激活门控在输入向量空间中运行,以减少输出偏差。基于这一观察,可以重新将原始问题表述为每层的版本——给定一个权重矩阵和一个采样输入向量,标准线性变换为。作者的目标就变成了确定一个激活门或者掩码,使得掩码输出通过求解下式来逼近原始输出:

2.2 权重感知门控机制

        目前许多稀疏激活方法都通过一种由隐藏状态绝对值控制的top-K门控机制运行。这种方法忽略了权重矩阵的关键作用,而在WINA中,作者根据特定的标准选择top-K个分量来构造二元激活门:

        其中表示W的按列L2范数,表示哈达玛积或者逐元素乘积。K的选择可以根据不同的用例进行调整,范围从一种粗粒度的通用标准(即对所有层应用相同的K)到一种细粒度的特定层策略(即单独分配K以更好地最小化近似误差)。

2.3 应用

        作者依赖于相关权重矩阵列正交的假设在论文中展开了理论分析,即当时,但在实际中,大模型可能会违反列正交的条件。为了保持理论误差界限,作者提出了一种张量变换框架(tensor transformation framework),该框架在模型的相关权重矩阵中强制实现列正交性。

        给定一个权重矩阵W,可以通过在W的右侧乘以一个正交矩阵Q来强制实现列正交性,使得乘积WQ具有正交列。具体来说,对W进行奇异值分解:

        其中,U和V是正交矩阵,而是一个对角矩阵,包含W的奇异值。为了实现列正交性,设Q=V,并按如下方式变换W:

        这种变换保证了所得矩阵满足列正交性:

        为了确保模型在这种变换后最终输出保持不变,作者利用计算不变性来补偿其影响。即通过基于奇异值分解的变换,对自注意力层中的键投影矩阵和多层感知机(MLP)层中的门投影矩阵施加列正交约束。然后,将这些变换传播到相邻层,并相应地调整残差连接,以保持计算不变性。在推理过程中,对这些经过变换的列正交矩阵采用所提出的激活准测,而对于其余矩阵则采用稀疏建模中常见的策略,即使用传统的基于输入的激活准则。

 


文章转载自:

http://WHI2irkN.bmLcy.cn
http://Hh4gZPuN.bmLcy.cn
http://nwBzvSk2.bmLcy.cn
http://WKqT6BGH.bmLcy.cn
http://E1KGUw6z.bmLcy.cn
http://2bKwKOal.bmLcy.cn
http://BSYKaxWj.bmLcy.cn
http://tq4G4dTz.bmLcy.cn
http://riFK2B1E.bmLcy.cn
http://OXHm3NCi.bmLcy.cn
http://ULM83eMs.bmLcy.cn
http://dsM683Qd.bmLcy.cn
http://Va9rTGyu.bmLcy.cn
http://mxYotSKa.bmLcy.cn
http://H08eAOmX.bmLcy.cn
http://4MrelDbD.bmLcy.cn
http://986WuI7X.bmLcy.cn
http://cqbGL4NE.bmLcy.cn
http://BdiIP4Cw.bmLcy.cn
http://ODG6BUGE.bmLcy.cn
http://QUPDCLci.bmLcy.cn
http://YjNY5yYq.bmLcy.cn
http://XKT64dmD.bmLcy.cn
http://EqbTRhNb.bmLcy.cn
http://vGfbU0V5.bmLcy.cn
http://ASTRvjcz.bmLcy.cn
http://8zkXsBvO.bmLcy.cn
http://WfhfvSqM.bmLcy.cn
http://3RYsbzb8.bmLcy.cn
http://7H7Rfvuq.bmLcy.cn
http://www.dtcms.com/wzjs/745428.html

相关文章:

  • 上海企业网站优化西安做网站哪家好
  • 简述建设一个网站的基本步骤如何设计一个网站没灵感
  • 网站源码论坛软件项目管理pdf
  • 网站开发技术协议怎么写企业所得税优惠政策最新2023上海
  • 太原做学校网站的公司葫岛百度seo
  • 宝安-网站建设信科网络wordpress 项目选项
  • 企业网站建站系统哪个好用男男床上爱做 网站
  • 北京网站建设 标准型 新翼开广告店要懂哪些技术
  • 中学网站建设工作实施方案静态网站建设平台
  • 网站建设梦幻创意牛商网怎么样
  • wordpress 重装教程seo两个域名一个网站有影响
  • 网站首页优化模板游戏建模培训
  • 四川住房与城乡建设厅网站网站开发技术方案实验报告
  • 网站建设公司软文wordpress get attachment
  • 甜品制作网站雕塑网站源码
  • 网站 使用的字体百度推广建站平台
  • 专业的徐州网站开发yw55523can优物入口
  • 怎样做学校网站seo是什么意思教程
  • app与网站的区别是什么凡科网代理商登录
  • python做的网站有哪些关于做美食的小视频网站
  • 建设网站虚拟现实技术相城seo网站优化软件
  • 漯河企业网站建设新类型的网站
  • 先买域名不建设网站吗专业集团网站建设
  • 免费视频网站app使用排名浙江壹设软装设计有限公司
  • 中国十大文旅策划公司南通网站排名优化
  • 滨州淄博网站建设网站地图好处
  • 长春移动端网站设计网页设计与制作建立站点实践报告
  • 河南企业网站备案easyui做门户网站
  • 北京网站怎么建设做公司网站哪家 上海
  • 无锡建站方案在哪些网站做推广比较好