当前位置: 首页 > wzjs >正文

在国税网站更换购票员怎么做云南住房和城乡建设局网站

在国税网站更换购票员怎么做,云南住房和城乡建设局网站,合肥 网站设计,抖音代运营图片文章目录 前言负采样 (Negative Sampling)层序Softmax (Hierarchical Softmax)代码示例总结前言 在自然语言处理(NLP)领域,词嵌入(Word Embeddings)技术如Word2Vec(包括Skip-gram和CBOW模型)已经成为一项基础且强大的工具。它们能够将词语映射到低维稠密向量空间,使得…

文章目录

  • 前言
  • 负采样 (Negative Sampling)
  • 层序Softmax (Hierarchical Softmax)
    • 代码示例
  • 总结


前言

在自然语言处理(NLP)领域,词嵌入(Word Embeddings)技术如Word2Vec(包括Skip-gram和CBOW模型)已经成为一项基础且强大的工具。它们能够将词语映射到低维稠密向量空间,使得语义相近的词在向量空间中的距离也相近。然而,这些模型在训练过程中,尤其是在计算输出层softmax时,会面临一个巨大的挑战:词汇表通常非常庞大(几十万甚至数百万个词)。对整个词典进行求和并计算梯度,其计算成本是巨大的。

为了解决这个问题,研究者们提出了多种近似训练方法,旨在降低计算复杂度,同时保持模型性能。本篇将重点介绍两种在Word2Vec中广泛应用的近似训练方法:负采样(Negative Sampling)分层Softmax(Hierarchical Softmax)。我们将以跳元模型(Skip-gram)为例来阐述这两种方法的核心思想。

虽然本文标题带有"PyTorch版",但所提供的笔记主要集中在理论层面。在实际的PyTorch应用中,这些近似训练方法通常会通过专门的损失函数或者自定义神经网络层来实现。

完整代码:下载链接

负采样 (Negative Sampling)

负采样通过修改原始目标函数来降低计算复杂度。其核心思想是,对于每个训练样本(中心词和其上下文中的一个真实目标词),我们不再尝试预测整个词汇表中哪个词是正确的上下文词,而是将其转化为一个二分类问题:区分真实的目标词和一些随机采样的“噪声”词(负样本)。

给定中心词 w c w_c wc 的上下文窗口,任意上下文词 w o w_o wo 来自该上下文窗口的事件被认为是由下式建模概率的事件:

P ( D = 1 ∣ w c , w o ) = σ ( u o ⊤ v c ) P(D=1 \mid w_c, w_o) = \sigma(\mathbf{u}_o^\top \mathbf{v}_c) P(D=1wc,wo)=σ(uovc)

其中 σ \sigma σ 使用了sigmoid激活函数的定义:

σ ( x ) = 1 1 + exp ⁡ ( − x ) \sigma(x) = \frac{1}{1 + \exp(-x)} σ(x)=1+exp(x)1

u o \mathbf{u}_o uo 是上下文词 w o w_o wo 的输出向量(或称为上下文向量), v c \mathbf{v}_c vc 是中心词 w c w_c wc 的输入向量(或称为词向量)。

原始的Word2Vec模型旨在最大化文本序列中所有这些正样本事件的联合概率。具体而言,给定长度为 T T T 的文本序列,以 w ( t ) w^{(t)} w(t) 表示时间步 t t t 的词,并使上下文窗口为 m m m,考虑最大化联合概率:

∏ t = 1 T ∏ − m ≤ j ≤ m , j ≠ 0 P ( D = 1 ∣ w ( t ) , w ( t + j ) ) \prod_{t=1}^T \prod_{-m \leq j \leq m, j \neq 0} P(D=1 \mid w^{(t)}, w^{(t+j)}) t=1Tmjm,j=0P(D=1w(t),w(t+j))

然而,这个目标函数只考虑了正样本。如果仅最大化这个概率,模型可能会学到将所有词向量都变得非常大,导致 σ ( u o ⊤ v c ) \sigma(\mathbf{u}_o^\top \mathbf{v}_c) σ(uovc) 接近1,但这并没有实际意义。

为了使目标函数更有意义,负采样引入了负样本。

S S S 表示上下文词 w o w_o wo 来自中心词 w c w_c wc 的上下文窗口的事件。对于这个涉及 w o w_o wo 的事件,我们从一个预定义的分布 P ( w ) P(w) P(w)(通常是词频的3/4次方)中采样 K K K 个不是来自这个上下文窗口的“噪声词”(负样本)。用 N k N_k Nk 表示噪声词 w k ( k = 1 , … , K ) w_k (k=1, \ldots, K) wk(k=1,,K) 不是来自 w c w_c wc 的上下文窗口的事件(即它们是负样本, D = 0 D=0 D=0)。

假设正例和负例 S , N 1 , … , N K S, N_1, \ldots, N_K S,N1,,NK 的这些事件是相互独立的。负采样将上述联合概率(仅涉及正例)修改为,对于每个中心词-上下文词对 ( w ( t ) , w ( t + j ) ) (w^{(t)}, w^{(t+j)}) (w(t),w(t+j)),最大化以下概率࿱


文章转载自:

http://uEYKQ21Q.zkjqj.cn
http://MWbo7YN3.zkjqj.cn
http://cFsRCki7.zkjqj.cn
http://hQrg7t5W.zkjqj.cn
http://c6tDkCDl.zkjqj.cn
http://lyt1ZrPt.zkjqj.cn
http://Ri1mfhNf.zkjqj.cn
http://J6dc0Q9v.zkjqj.cn
http://wuP0Ct9E.zkjqj.cn
http://adXNAOSA.zkjqj.cn
http://mZrEIF5Z.zkjqj.cn
http://GHxIHPSh.zkjqj.cn
http://V6riEznU.zkjqj.cn
http://RBYfLvjX.zkjqj.cn
http://8PQp7OzQ.zkjqj.cn
http://1XoxG5Zj.zkjqj.cn
http://XymHas7D.zkjqj.cn
http://82CbUyVD.zkjqj.cn
http://6AwKEDUI.zkjqj.cn
http://6C6UrFPj.zkjqj.cn
http://DPvKoNV5.zkjqj.cn
http://SVpu7tD1.zkjqj.cn
http://UU4o5NSt.zkjqj.cn
http://ZIbDogUU.zkjqj.cn
http://K5X2cfNE.zkjqj.cn
http://0mFnIpby.zkjqj.cn
http://0zoIJdm4.zkjqj.cn
http://GLk3uhye.zkjqj.cn
http://sKFHkoFW.zkjqj.cn
http://Md5nRVHT.zkjqj.cn
http://www.dtcms.com/wzjs/719582.html

相关文章:

  • 嘉陵区建设局网站财政网站平台建设不足
  • 怎么夸一个网站做的好看怎么做自助购物网站
  • 网站建站哪家公司好杭州手机建设网站
  • 做问卷赚钱的网站公司想做个网站应该怎么做
  • 邹平县建设局网站wordpress官方主题下载
  • 网站建设公司包括哪些做招聘网站需要哪些手续
  • 个人微信网站怎么做闵行网站制作
  • 哈尔滨网络公司网站建设wordpress数据库缓存
  • 安徽省建设银行网站seo引擎优化外包公司
  • 网站空间搭建百度搜索seo
  • 设计类平台网站长春建设网站公司吗
  • 小天才电话手表网站wordpress多主题
  • 北京互联网建站网站wordpress关注功能怎么实现
  • 郑州网站改版公司商丘雷光网络科技有限公司
  • 整站策划营销型网站建设网站优化终身免费vps
  • 湖北企业建站系统信息游戏开发物语完美搭配
  • 北京市网站建设企业建网站最少需要多少钱
  • 阿里云做电影网站吗梅州网站设计
  • 如果做微商需不需要开个网站。广州找人做网站
  • 十大网站建设长春网易网站建设
  • 怎么修改网站网页的背景图片asp.net网站支持多国语言
  • 购物网站模板带后台网站开发公司
  • 那个网站做的刀比较好深圳最近一个星期新闻
  • 汽车网站开发网页设计实训
  • 域名查询权威网站广告推广的软件
  • 教学资源库网站建设立项申报书wordpress安装主题
  • 网站建设用哪种语言最好网址ip地址查询
  • 天津建设网站天津市地铁规划图网站建设行业分析报告
  • 深圳网站设计招聘信息u nas 建设网站
  • 知科网站乾安网站建设