当前位置: 首页 > wzjs >正文

专业建设网站公司哪家好seo查询 工具

专业建设网站公司哪家好,seo查询 工具,武汉科技职业学院是几本,p网站建设论文网址:Biologically Plausible Brain Graph Transformer 英文是纯手打的!论文原文的summarizing and paraphrasing。可能会出现难以避免的拼写错误和语法错误,若有发现欢迎评论指正!文章偏向于笔记,谨慎食用 目录 …

论文网址:Biologically Plausible Brain Graph Transformer

英文是纯手打的!论文原文的summarizing and paraphrasing。可能会出现难以避免的拼写错误和语法错误,若有发现欢迎评论指正!文章偏向于笔记,谨慎食用

目录

1. 心得

2. 论文逐段精读

2.1. Abstract

2.2. Introduction

2.3. Preliminaries

2.3.1. Problem Definition

2.3.2. Graph Transformers

2.4. Biologically Plausible Brain Graph Transformer

2.4.1. Network Entanglement-based Node Importance Encoding

2.4.2. Functional Module-Aware Self-Attention

2.5. Experiments

2.5.1. Experimental Setup

2.5.2. Results

2.5.3. Ablation Studies

2.5.4. Comparative Analysis of Node Importance Measurement

2.5.5. Biological Plausibility Analysis

2.6. Related Work

2.6.1. Brain Graph Analysis

2.6.2. Graph Transformers

2.7. Conclusion

1. 心得

(1)慎看,感觉很物理,需要一定基础,什么量子纠缠。我不是很懂纠缠

(2)(题外话)我将diss所有沙壁审稿人,我论文和这篇ICLR2025效果几乎一模一样(对比模型一样数据集一样结果一样),审稿人说我“你的模型二分类才70多太糟糕了”/“几乎没有提升”/“性能平平”,对我复现的论文,从这篇可以看到BrainGNN在ABIDE上就是五十多,GAT也是。审稿人说我“故意压低基线”/“和原论文极大不符,疑似学术造假~”/“怀疑结果真实性”。先四格🐎吗审稿人宝宝们?已读不回是审稿人宝宝们论文都被拒了是吧~

(3)先放表。能不能告诉全世界ABIDE数据集在2025年就是这个β样子:

(4)文尾有drama事件。BNT惨遭无辜炮轰。

2. 论文逐段精读

2.1. Abstract

        ①Existing works fail to represent brain framework

2.2. Introduction

        ①(a) Hub and functional modules, and (b) functional connectivity (FC) in different brain regions of ADHD:

2.3. Preliminaries

2.3.1. Problem Definition

        ①Graph: G=(V,E,\mathbf{X}), with node set V, dege set E, feature matrix \mathbf{X}\in\mathbb{R}^{n\times d}, and n ROIs (nodes)

2.3.2. Graph Transformers

        ①Transformer block: an attention module and a feed-forward network (FFN)

        ②Attention mechanism with \mathbf{W}_{Q}\in\mathbb{R}^{d\times d_{\mathcal{K}}},\mathbf{W}_{K}\in\mathbb{R}^{d\times d_{\mathcal{K}}},\mathbf{W}_{V}\in\mathbb{R}^{d\times d_{\mathcal{K}}}:

\mathbf{Q}=\mathbf{X}\mathbf{W}_Q,\quad\mathbf{K}=\mathbf{X}\mathbf{W}_K,\quad\mathbf{V}=\mathbf{X}\mathbf{W}_V

\mathbf{A}=\frac{\mathbf{QK}^{\mathsf{T}}}{\sqrt{d_{\mathcal{K}}}},\quad Attn(\mathbf{X})=softmax(\mathbf{A})\mathbf{V}

where \mathbf{A} denotes similarity between queries and keys

        ③Output of attention blocks:

\tilde{\mathbf{X}}=\mathbf{X}+Attn(\mathbf{X}),\quad\hat{\mathbf{X}}=\mathbf{W}_{2}ReLU(\mathbf{W}_{1}\tilde{\mathbf{X}})

2.4. Biologically Plausible Brain Graph Transformer

        ①Rewrite \tilde{\mathbf{X}}=\mathbf{X}+Attn(\mathbf{X}) to:

\tilde{\mathbf{x}}_i=\Phi(\mathbf{x}_i)+\mathrm{FM-}Attn(i)

(FM后面是短横线,不是减号)where \Phi(\cdot) denotes a network entanglement-based node importance encoding method

        ②Overall framework of BioBGT:

2.4.1. Network Entanglement-based Node Importance Encoding

        ①Normalized information diffusion propagator:

\rho_{G}=\frac{e^{-\gamma\mathbf{L}}}{Z}

where e^{-\gamma\mathbf{L}} denotes information diffusion propagator, \gamma denotes positive parameter, \mathbf{L} is Laplacian matrix, Z=\mathrm{Tr}(e^{-\gamma\mathrm{L}}) is the partition function

        ②von Neumann entropy, to capture global topology and information diffusion process of graphs:

\mathcal{S}(G)=-Tr(\rho_G\log_2\rho_G)

where \mathcal{S}(G) is the density matrix-based spectral entropy, Tr\left ( \cdot \right ) denotes the trace operation computing the trace of the product of the density matrix \rho _G and its natural logarithm

        ③Node importance (node entanglement value (VE value)):

\mathcal{NE}(i)=\|\mathcal{S}(G_{i})-\mathcal{S}(G)\|

where G_i is the i-control graph obtained after the perturbation of node i

        ④To approximate NE value:

\mathcal{NE}(i)\approx \begin{Vmatrix} \frac{2m\gamma n^2}{\ln2(n-\alpha)^2}\frac{\Delta Z}{ZZ_i}+\log_2(\frac{Z_i}{Z}) \end{Vmatrix}

where n and m is node number and edge number respectively, \Delta Z=Z_{i}-Z

        ⑤Node representation:

\mathbf{x^{\prime}}_{i}=\Phi(\mathbf{x}_{i})=\mathbf{x}_{i}+\mathbf{x}_{\mathcal{NE}(i)}

where \mathbf{x}_{\mathcal{NE}(i)} denotes learnable embedding vector specified by \mathcal{N}\mathcal{E}(i)

2.4.2. Functional Module-Aware Self-Attention

(1)Community Contrastive Strategy-based Functional Module Extractor

        ①Updating \mathbf{x^{\prime}}_{i} by \mathbf{h}_i:=\psi(i,\mathcal{M}_i), where \psi \left ( \cdot \right ) denotes functional module extractor and \mathcal{M}_i is functional module node i belongs to

        ②Augment graph G to G^1 and G^2 by edge drop

        ③Employing contrastive learning by regarding nodes in the same functional module as positive sample and in the different functional module as negative. They use InfoNCE loss:

\mathcal{L}=-\frac{1}{n}\sum_{i=1}^{n}\log\frac{exp(Sim(\mathbf{h}_{i}^{1},\mathbf{h}_{i}^{pos}))}{\sum_{j=1}^{n^{\mathrm{Neg}}}exp(Sim(\mathbf{h}_{i}^{1},\mathbf{h}_{j}^{1}))+\sum_{j=1}^{n^{\mathrm{Neg}}}exp(Sim(\mathbf{h}_{i}^{1},\mathbf{h}_{j}^{2}))}

where node features are represented as \mathbf{h}_i^j in graph G^j

(2)Updated Self-Attention Mechanism

        ①Attention module with exponential kernels:

\mathrm{FM-}Attn(i)=\sum_{j\in V}\frac{exp\left(\langle\mathbf{W}_{Q}\mathbf{h}_{i},\mathbf{W}_{K}\mathbf{h}_{j}\rangle/\sqrt{d_{\mathcal{K}}}\right)}{\sum_{u\in V}exp\left(\langle\mathbf{W}_{Q}\mathbf{h}_{i},\mathbf{W}_{K}\mathbf{h}_{u}\rangle/\sqrt{d_{\mathcal{K}}}\right)}f(\mathbf{h}_{j})

where exp\left(\langle\mathbf{W}_{Q}\mathbf{h}_{a},\mathbf{W}_{K}\mathbf{h}_{b}\rangle/\sqrt{d_{\mathcal{K}}}\right) denotes non-negative kernel, \langle\cdot,\cdot\rangle is dot product, f\left ( \cdot \right ) is linear value function

        ②Functional module-aware self-attention bound:

\|F\boldsymbol{M}Attn(a)-F\boldsymbol{M}Attn(b)\|\leq C_{\mathcal{M}}\|\mathbf{h}_a-\mathbf{h}_b\|

where \mathbf{h}_a:=\psi(a,\mathcal{M}_a) and \mathbf{h}_{b}:=\psi(b,\mathcal{M}_{b}) are representations of nodes a and b after the functional module extractor

2.5. Experiments

2.5.1. Experimental Setup

(1)ABIDE Dataset

        ①Subjects: 1009 with 516 ASD and 493 NC

        ②Brain atlas: Craddock 200

(2)ADNI Dataset

        ①Subjects: 407 with 190 NC, 170 MCI and 47 AD

        ②Brain atlas: AAL 90

(3)ADHD-200

        ①Subjects: 459 with 230 NC and 229 ADHD

        ②Brain atlas: CC200(但作者在这只用了190个?)

(4)Setting

        ①Brian graph construction: Pearson correlation

        ②Threshold applied

        ③Optimizer: AdamW

        ④Loss: BCE loss

        ⑤Data split: 0.8/0.1/0.1

2.5.2. Results

        ①Performance:

2.5.3. Ablation Studies

        ①Module ablation:

2.5.4. Comparative Analysis of Node Importance Measurement

        ①Encoder ablation:

2.5.5. Biological Plausibility Analysis

        ①The NE and NEff values of 50 randomly selected nodes from a sample in the ABIDE dataset:

        ②The heatmaps of the average self-attention scores:

2.6. Related Work

2.6.1. Brain Graph Analysis

        ①虽然我不厨Kan Xuan,也不推BrainNetworkTransformer,但BioBGT说:

无辜的BNT独自承担了一切。BNT原文:

        ②我很难得看一下相关工作,不要一看就很...(方便起见放中文了,左边BioBGT右边BNT。BNT人家也有在认真聚类好吧。虽然没有觉得BNT牛到哪里去但是给了代码+效果是真的不错所以嘎嘎点赞啊)

2.6.2. Graph Transformers

        ①介绍了一些相关的

2.7. Conclusion

        ~

http://www.dtcms.com/wzjs/228095.html

相关文章:

  • 太原网站推广精准引流的网络推广方法
  • 天津市建设教育培训中心的网站商家联盟营销方案
  • 网站建设困难吗搜索引擎的优化方法有哪些
  • 美食网站页面设计源代码福建seo排名培训
  • 推广网站2024seo优化6个实用技巧
  • 网站宣传图上海网站营销seo电话
  • 做网站的公司深网站运营工作的基本内容
  • 电子商务就业前景百度seo点击器
  • 做网站的边框株洲百度seo
  • 国内最大的几个手游加盟平台成都关键词seo推广电话
  • 网页设计专业服务公司辽阳网站seo
  • 网站建设网站排名优化金牌服务互联网广告怎么做
  • 做统计的网站国外搜索引擎排名百鸣
  • 网站开发前端的工作内容是什么厦门seo报价
  • 做网站前需要做什么准备广告推广免费
  • 温州手机网站制作哪家好鸿星尔克网络营销
  • 漳州开发区人才网北京seo管理
  • 网址导航网站有哪些免费网站推广网站在线
  • 广州番禺专业做网站今日疫情最新消息全国31个省
  • 深圳专业做网站排名哪家好个人接外包项目平台
  • 公司网站建立教程网络推广靠谱吗
  • 辽源网站优化广州企业推广
  • 英文网站建设 飞沐网站推广方案策划
  • 网站建设佳木斯网络推广渠道排名
  • 网站工程师培训学校外链平台
  • 网站建设 网站开发seo 优化公司
  • 河南做网站公司最新seo视频教程
  • 焦作市网站建设公司今天新闻头条
  • 小红书推广费用网站推广优化排名教程
  • 泰州手机网站制作网盘手机app官网下载