当前位置: 首页 > wzjs >正文

wordpress+三主题公园seo如何提高排名

wordpress+三主题公园,seo如何提高排名,济南做设计公司网站,凡客诚品官网app下载论文网址:Biologically Plausible Brain Graph Transformer 英文是纯手打的!论文原文的summarizing and paraphrasing。可能会出现难以避免的拼写错误和语法错误,若有发现欢迎评论指正!文章偏向于笔记,谨慎食用 目录 …

论文网址:Biologically Plausible Brain Graph Transformer

英文是纯手打的!论文原文的summarizing and paraphrasing。可能会出现难以避免的拼写错误和语法错误,若有发现欢迎评论指正!文章偏向于笔记,谨慎食用

目录

1. 心得

2. 论文逐段精读

2.1. Abstract

2.2. Introduction

2.3. Preliminaries

2.3.1. Problem Definition

2.3.2. Graph Transformers

2.4. Biologically Plausible Brain Graph Transformer

2.4.1. Network Entanglement-based Node Importance Encoding

2.4.2. Functional Module-Aware Self-Attention

2.5. Experiments

2.5.1. Experimental Setup

2.5.2. Results

2.5.3. Ablation Studies

2.5.4. Comparative Analysis of Node Importance Measurement

2.5.5. Biological Plausibility Analysis

2.6. Related Work

2.6.1. Brain Graph Analysis

2.6.2. Graph Transformers

2.7. Conclusion

1. 心得

(1)慎看,感觉很物理,需要一定基础,什么量子纠缠。我不是很懂纠缠

(2)(题外话)我将diss所有沙壁审稿人,我论文和这篇ICLR2025效果几乎一模一样(对比模型一样数据集一样结果一样),审稿人说我“你的模型二分类才70多太糟糕了”/“几乎没有提升”/“性能平平”,对我复现的论文,从这篇可以看到BrainGNN在ABIDE上就是五十多,GAT也是。审稿人说我“故意压低基线”/“和原论文极大不符,疑似学术造假~”/“怀疑结果真实性”。先四格🐎吗审稿人宝宝们?已读不回是审稿人宝宝们论文都被拒了是吧~

(3)先放表。能不能告诉全世界ABIDE数据集在2025年就是这个β样子:

(4)文尾有drama事件。BNT惨遭无辜炮轰。

2. 论文逐段精读

2.1. Abstract

        ①Existing works fail to represent brain framework

2.2. Introduction

        ①(a) Hub and functional modules, and (b) functional connectivity (FC) in different brain regions of ADHD:

2.3. Preliminaries

2.3.1. Problem Definition

        ①Graph: G=(V,E,\mathbf{X}), with node set V, dege set E, feature matrix \mathbf{X}\in\mathbb{R}^{n\times d}, and n ROIs (nodes)

2.3.2. Graph Transformers

        ①Transformer block: an attention module and a feed-forward network (FFN)

        ②Attention mechanism with \mathbf{W}_{Q}\in\mathbb{R}^{d\times d_{\mathcal{K}}},\mathbf{W}_{K}\in\mathbb{R}^{d\times d_{\mathcal{K}}},\mathbf{W}_{V}\in\mathbb{R}^{d\times d_{\mathcal{K}}}:

\mathbf{Q}=\mathbf{X}\mathbf{W}_Q,\quad\mathbf{K}=\mathbf{X}\mathbf{W}_K,\quad\mathbf{V}=\mathbf{X}\mathbf{W}_V

\mathbf{A}=\frac{\mathbf{QK}^{\mathsf{T}}}{\sqrt{d_{\mathcal{K}}}},\quad Attn(\mathbf{X})=softmax(\mathbf{A})\mathbf{V}

where \mathbf{A} denotes similarity between queries and keys

        ③Output of attention blocks:

\tilde{\mathbf{X}}=\mathbf{X}+Attn(\mathbf{X}),\quad\hat{\mathbf{X}}=\mathbf{W}_{2}ReLU(\mathbf{W}_{1}\tilde{\mathbf{X}})

2.4. Biologically Plausible Brain Graph Transformer

        ①Rewrite \tilde{\mathbf{X}}=\mathbf{X}+Attn(\mathbf{X}) to:

\tilde{\mathbf{x}}_i=\Phi(\mathbf{x}_i)+\mathrm{FM-}Attn(i)

(FM后面是短横线,不是减号)where \Phi(\cdot) denotes a network entanglement-based node importance encoding method

        ②Overall framework of BioBGT:

2.4.1. Network Entanglement-based Node Importance Encoding

        ①Normalized information diffusion propagator:

\rho_{G}=\frac{e^{-\gamma\mathbf{L}}}{Z}

where e^{-\gamma\mathbf{L}} denotes information diffusion propagator, \gamma denotes positive parameter, \mathbf{L} is Laplacian matrix, Z=\mathrm{Tr}(e^{-\gamma\mathrm{L}}) is the partition function

        ②von Neumann entropy, to capture global topology and information diffusion process of graphs:

\mathcal{S}(G)=-Tr(\rho_G\log_2\rho_G)

where \mathcal{S}(G) is the density matrix-based spectral entropy, Tr\left ( \cdot \right ) denotes the trace operation computing the trace of the product of the density matrix \rho _G and its natural logarithm

        ③Node importance (node entanglement value (VE value)):

\mathcal{NE}(i)=\|\mathcal{S}(G_{i})-\mathcal{S}(G)\|

where G_i is the i-control graph obtained after the perturbation of node i

        ④To approximate NE value:

\mathcal{NE}(i)\approx \begin{Vmatrix} \frac{2m\gamma n^2}{\ln2(n-\alpha)^2}\frac{\Delta Z}{ZZ_i}+\log_2(\frac{Z_i}{Z}) \end{Vmatrix}

where n and m is node number and edge number respectively, \Delta Z=Z_{i}-Z

        ⑤Node representation:

\mathbf{x^{\prime}}_{i}=\Phi(\mathbf{x}_{i})=\mathbf{x}_{i}+\mathbf{x}_{\mathcal{NE}(i)}

where \mathbf{x}_{\mathcal{NE}(i)} denotes learnable embedding vector specified by \mathcal{N}\mathcal{E}(i)

2.4.2. Functional Module-Aware Self-Attention

(1)Community Contrastive Strategy-based Functional Module Extractor

        ①Updating \mathbf{x^{\prime}}_{i} by \mathbf{h}_i:=\psi(i,\mathcal{M}_i), where \psi \left ( \cdot \right ) denotes functional module extractor and \mathcal{M}_i is functional module node i belongs to

        ②Augment graph G to G^1 and G^2 by edge drop

        ③Employing contrastive learning by regarding nodes in the same functional module as positive sample and in the different functional module as negative. They use InfoNCE loss:

\mathcal{L}=-\frac{1}{n}\sum_{i=1}^{n}\log\frac{exp(Sim(\mathbf{h}_{i}^{1},\mathbf{h}_{i}^{pos}))}{\sum_{j=1}^{n^{\mathrm{Neg}}}exp(Sim(\mathbf{h}_{i}^{1},\mathbf{h}_{j}^{1}))+\sum_{j=1}^{n^{\mathrm{Neg}}}exp(Sim(\mathbf{h}_{i}^{1},\mathbf{h}_{j}^{2}))}

where node features are represented as \mathbf{h}_i^j in graph G^j

(2)Updated Self-Attention Mechanism

        ①Attention module with exponential kernels:

\mathrm{FM-}Attn(i)=\sum_{j\in V}\frac{exp\left(\langle\mathbf{W}_{Q}\mathbf{h}_{i},\mathbf{W}_{K}\mathbf{h}_{j}\rangle/\sqrt{d_{\mathcal{K}}}\right)}{\sum_{u\in V}exp\left(\langle\mathbf{W}_{Q}\mathbf{h}_{i},\mathbf{W}_{K}\mathbf{h}_{u}\rangle/\sqrt{d_{\mathcal{K}}}\right)}f(\mathbf{h}_{j})

where exp\left(\langle\mathbf{W}_{Q}\mathbf{h}_{a},\mathbf{W}_{K}\mathbf{h}_{b}\rangle/\sqrt{d_{\mathcal{K}}}\right) denotes non-negative kernel, \langle\cdot,\cdot\rangle is dot product, f\left ( \cdot \right ) is linear value function

        ②Functional module-aware self-attention bound:

\|F\boldsymbol{M}Attn(a)-F\boldsymbol{M}Attn(b)\|\leq C_{\mathcal{M}}\|\mathbf{h}_a-\mathbf{h}_b\|

where \mathbf{h}_a:=\psi(a,\mathcal{M}_a) and \mathbf{h}_{b}:=\psi(b,\mathcal{M}_{b}) are representations of nodes a and b after the functional module extractor

2.5. Experiments

2.5.1. Experimental Setup

(1)ABIDE Dataset

        ①Subjects: 1009 with 516 ASD and 493 NC

        ②Brain atlas: Craddock 200

(2)ADNI Dataset

        ①Subjects: 407 with 190 NC, 170 MCI and 47 AD

        ②Brain atlas: AAL 90

(3)ADHD-200

        ①Subjects: 459 with 230 NC and 229 ADHD

        ②Brain atlas: CC200(但作者在这只用了190个?)

(4)Setting

        ①Brian graph construction: Pearson correlation

        ②Threshold applied

        ③Optimizer: AdamW

        ④Loss: BCE loss

        ⑤Data split: 0.8/0.1/0.1

2.5.2. Results

        ①Performance:

2.5.3. Ablation Studies

        ①Module ablation:

2.5.4. Comparative Analysis of Node Importance Measurement

        ①Encoder ablation:

2.5.5. Biological Plausibility Analysis

        ①The NE and NEff values of 50 randomly selected nodes from a sample in the ABIDE dataset:

        ②The heatmaps of the average self-attention scores:

2.6. Related Work

2.6.1. Brain Graph Analysis

        ①虽然我不厨Kan Xuan,也不推BrainNetworkTransformer,但BioBGT说:

无辜的BNT独自承担了一切。BNT原文:

        ②我很难得看一下相关工作,不要一看就很...(方便起见放中文了,左边BioBGT右边BNT。BNT人家也有在认真聚类好吧。虽然没有觉得BNT牛到哪里去但是给了代码+效果是真的不错所以嘎嘎点赞啊)

2.6.2. Graph Transformers

        ①介绍了一些相关的

2.7. Conclusion

        ~


文章转载自:

http://fNw7NLh5.dwncg.cn
http://0S9Y8jHz.dwncg.cn
http://Lot2yUUX.dwncg.cn
http://xZfvVYJ5.dwncg.cn
http://PcHHPdvg.dwncg.cn
http://kzkd7V1x.dwncg.cn
http://wepJLDVU.dwncg.cn
http://sX24iiT4.dwncg.cn
http://8AWShF7g.dwncg.cn
http://p4Ia9tjO.dwncg.cn
http://RquPozUn.dwncg.cn
http://vHwwvRHP.dwncg.cn
http://mFr2XR0z.dwncg.cn
http://ZFGUG18A.dwncg.cn
http://QzqondFe.dwncg.cn
http://nRXc9ueu.dwncg.cn
http://ZrWdl0M5.dwncg.cn
http://ho2aJnUg.dwncg.cn
http://zKziHdjx.dwncg.cn
http://6PUybr2v.dwncg.cn
http://kHTd2L6E.dwncg.cn
http://zI933MfI.dwncg.cn
http://prwjCmfu.dwncg.cn
http://AJ0KQ21Y.dwncg.cn
http://kgBdKQ7N.dwncg.cn
http://cwQLDUix.dwncg.cn
http://ghvyJHOu.dwncg.cn
http://XEWNZhIQ.dwncg.cn
http://e8H6X87V.dwncg.cn
http://eddVUhN8.dwncg.cn
http://www.dtcms.com/wzjs/732450.html

相关文章:

  • 初级买题做哪个网站好wordpress编辑器位置
  • 优化学校网站建设方案利津网站定制
  • 北京建网站公司域名备案 没有网站吗
  • 2019做什么类型网站asp网站表格代码
  • 淮安公司做网站国外做彩票网站推广是合法的吗
  • 关于重新建设网站的申请表初中文凭怎么自考大专
  • 手机网站建设视频教程python小程序代码
  • 网站开发教程百度云哪个公司做网站便宜
  • 外贸在什么网站做织梦网站栏目建设
  • 网站防红链接怎么做的网站建设推广代理公司
  • 靖江建设行业协会网站营销网站建设计划书
  • 英文购物网站模板wordpress模版如何套用
  • 泉州网站制作平台怎么自己做网站赚钱
  • 如何查询网站的访问量seo诊断服务
  • 东营网站制作公司西安建设网站的公司简介
  • 龙华网站建设销售员市场营销策划案的范文
  • 做网站有什么注意事项新手怎样做网络营销推广
  • 微信开发网站开发未来前景阳春网站制作
  • 网站建设51cto技术支持 昆明网站建设
  • 房产网站建设产品网站开发用什么写得比较好
  • 铜仁建设局网站首页长沙制作手机网站
  • 聊城网站建设公司电话三五互联网站后台
  • wap搜索引擎宁波正规seo推广公司
  • 网站建设支付宝网站制作哪家专业
  • 贵阳建设工程招投标网站wordpress二次开发
  • js博客网站开发计划书苏州中设建设集团有限公司网站
  • 刚做的公司网站搜不到医院网站建设招标说明
  • 怎么上网站云南网页设计与制作
  • 做哪个软件网站app北京平台网站建设方案
  • 设计师图片素材网站wordpress 歌