下面所有博客是个人对EEG脑电的探索,项目代码是早期版本不完整,需要完整项目代码和资料请私聊。

数据集
1、脑电项目探索和实现(EEG) (上):研究数据集选取和介绍SEED
相关论文阅读分析:
1、EEG-SEED数据集作者的—基线论文阅读和分析
2、图神经网络EEG论文阅读和分析:《EEG-Based Emotion Recognition Using Regularized Graph Neural Networks》
3、EEG-GNN论文阅读和分析:《EEG Emotion Recognition Using Dynamical Graph Convolutional Neural Networks》
4、论文阅读和分析:Masked Label Prediction: Unified Message Passing Model for Semi-Supervised Classification
5、论文阅读和分析:《DeepGCNs: Can GCNs Go as Deep as CNNs?》
6、论文阅读和分析: “How Attentive are Graph Attention Networks?”
7、论文阅读和分析:Simplifying Graph Convolutional Networks

8、论文阅读和分析:LightGCN: Simplifying and Powering Graph Convolution Network for Recommendation
9、图神经网络汇总和总结
相关实验和代码实现:
1、用于图神经网络的脑电数据处理实现_图神经网络 脑电
2、使用GCN训练和测试EEG的公开SEED数据集
3、使用GAT训练和测试EEG公开的SEED数据集
4、使用SGC训练和测试SEED数据集
5、使用Transformer训练和测试EEG的公开SEED数据集_eeg transformer
6、使用RGNN训练和测试EEG公开的SEED数据集
辅助学习资料:
1、官网三个简单Graph示例说明三种层次的应用_graph 简单示例
2、PPI数据集示例项目学习图神经网络
3、geometric库的数据处理详解
4、NetworkX的dicts of dicts以及解决Seven Bridges of Königsberg问题
5、geometric源码阅读和分析:MessagePassin类详解和使用
6、cora数据集示例项目学习图神经网络
7、Graph 聚合
8、QM9数据集示例项目学习图神经网络
9、处理图的开源库

基本

GAT的缺点:

GAT计算的注意力非常有限:注意力得分的排名不受查询节点的限制。将这种受限的注意力正式定义为静态注意力。因为GAT使用静态注意力机制,所以存在GAT无法表达的简单图形问题:在受控问题中,发现静态注意力阻碍GAT甚至无法拟合训练数据。

提出GATv2:

一个动态图注意力变体,它比GAT更具表达力。进行了广泛的评估,表明GATv2在12个OGB和其他基准测试中优于GAT,同时匹配其参数成本。代码位于https://github.com/tech-srl/how_attentive_are_gats。GATv2 is available as part of the PyTorch Geometric library,
the DeepGraph Library,and the TensorFlow GNN library.
1、from torch_geometric.nn.conv.gatv2_conv import GATv2Conv
2、from dgl.nn.pytorch import GATv2Conv
3、from tensorflow_gnn.graph.keras.layers.gat_v2 import GATv2Convolution

结果:

算法理论:

和GAT相比, a T a^T aT的位置改变;
x i ′ = α i , i Θ x i + ∑ j ∈ N ( i ) α i , j Θ x j , \mathbf{x}^{\prime}_i = \alpha_{i,i}\mathbf{\Theta}\mathbf{x}_{i} + \sum_{j \in \mathcal{N}(i)} \alpha_{i,j}\mathbf{\Theta}\mathbf{x}_{j}, xi′​=αi,i​Θxi​+j∈N(i)∑​αi,j​Θxj​,
注意力权重:
α i , j = exp ⁡ ( a ⊤ L e a k y R e L U ( Θ [ x i ∥ x j ] ) ) ∑ k ∈ N ( i ) ∪ { i } exp ⁡ ( a ⊤ L e a k y R e L U ( Θ [ x i ∥ x k ] ) ) . \alpha_{i,j} = \frac{ \exp\left(\mathbf{a}^{\top}\mathrm{LeakyReLU}\left(\mathbf{\Theta} [\mathbf{x}_i \, \Vert \, \mathbf{x}_j] \right)\right)} {\sum_{k \in \mathcal{N}(i) \cup \{ i \}} \exp\left(\mathbf{a}^{\top}\mathrm{LeakyReLU}\left(\mathbf{\Theta} [\mathbf{x}_i \, \Vert \, \mathbf{x}_k] \right)\right)}. αi,j​=∑k∈N(i)∪{i}​exp(a⊤LeakyReLU(Θ[xi​∥xk​]))exp(a⊤LeakyReLU(Θ[xi​∥xj​]))​.
If the graph has multi-dimensional edge features e i , j \mathbf{e}_{i,j} ei,j​ the attention coefficients α i , j \alpha_{i,j} αi,j​ are computed as:
α i , j = exp ⁡ ( a ⊤ L e a k y R e L U ( Θ [ x i ∥ x j ∥ e i , j ] ) ) ∑ k ∈ N ( i ) ∪ { i } exp ⁡ ( a ⊤ L e a k y R e L U ( Θ [ x i ∥ x k ∥ e i , k ] ) ) . \alpha_{i,j} = \frac{ \exp\left(\mathbf{a}^{\top}\mathrm{LeakyReLU}\left(\mathbf{\Theta} [\mathbf{x}_i \, \Vert \, \mathbf{x}_j \, \Vert \, \mathbf{e}_{i,j}] \right)\right)} {\sum_{k \in \mathcal{N}(i) \cup \{ i \}} \exp\left(\mathbf{a}^{\top}\mathrm{LeakyReLU}\left(\mathbf{\Theta} [\mathbf{x}_i \, \Vert \, \mathbf{x}_k \, \Vert \, \mathbf{e}_{i,k}] \right)\right)}. αi,j​=∑k∈N(i)∪{i}​exp(a⊤LeakyReLU(Θ[xi​∥xk​∥ei,k​]))exp(a⊤LeakyReLU(Θ[xi​∥xj​∥ei,j​]))​.

geometric开源的代码:

由于标准GAT中的线性层在每个层之后立即应用,因此参与节点的排名不受查询节点的限制。相反,在GATv2中,每个节点都可以处理任何其他节点。

torch_geometric.nn — pytorch_geometric documentation (pytorch-geometric.readthedocs.io)

    def __init__(self,in_channels: Union[int, Tuple[int, int]],out_channels: int,heads: int = 1,concat: bool = True,negative_slope: float = 0.2,dropout: float = 0.0,add_self_loops: bool = True,edge_dim: Optional[int] = None,fill_value: Union[float, Tensor, str] = 'mean',bias: bool = True,share_weights: bool = False,**kwargs,):def forward(self, x: Union[Tensor, PairTensor], edge_index: Adj,edge_attr: OptTensor = None,return_attention_weights: bool = None):        

参考:

论文阅读和分析:Graph Attention Networks_KPer_Yang的博客-CSDN博客
https://github.com/tech-srl/how_attentive_are_gats
https://arxiv.org/abs/2105.14491
https://pytorch-geometric.readthedocs.io/en/latest/modules/nn.html#torch_geometric.nn.conv.GATv2Conv

论文阅读和分析: “How Attentive are Graph Attention Networks?”相关推荐

  1. 【论文阅读】A Gentle Introduction to Graph Neural Networks [图神经网络入门](3)

    [论文阅读]A Gentle Introduction to Graph Neural Networks [图神经网络入门](3) What types of problems have graph ...

  2. 【论文阅读】A Gentle Introduction to Graph Neural Networks [图神经网络入门](7)

    [论文阅读]A Gentle Introduction to Graph Neural Networks [图神经网络入门](7) Into the Weeds Other types of grap ...

  3. 【论文阅读】A Gentle Introduction to Graph Neural Networks [图神经网络入门](6)

    [论文阅读]A Gentle Introduction to Graph Neural Networks [图神经网络入门](6) GNN playground Some empirical GNN ...

  4. 【论文阅读】A Gentle Introduction to Graph Neural Networks [图神经网络入门](5)

    [论文阅读]A Gentle Introduction to Graph Neural Networks [图神经网络入门](5) Graph Neural Networks 图神经网络 Now th ...

  5. 【论文阅读】A Gentle Introduction to Graph Neural Networks [图神经网络入门](4)

    [论文阅读]A Gentle Introduction to Graph Neural Networks [图神经网络入门](4) The challenges of using graphs in ...

  6. 【论文阅读】A Gentle Introduction to Graph Neural Networks [图神经网络入门](2)

    [论文阅读]A Gentle Introduction to Graph Neural Networks [图神经网络入门](2) Graphs and where to find them 图以及在 ...

  7. 【论文阅读】A Gentle Introduction to Graph Neural Networks [图神经网络入门](1)

    [论文阅读]A Gentle Introduction to Graph Neural Networks [图神经网络入门](1) 最近读了一篇Distill网站上的一篇文章,讲的是图神经网络的入门, ...

  8. 【图神经网络论文整理】(二)—— HOW ATTENTIVE ARE GRAPH ATTENTION NETWORKS?:GATv2

    ICLR 2022 Shaked Brody(Technion), Eran Yahav(Technion)Uri Alon(Language Technologies InstituteCarneg ...

  9. 论文阅读笔记: Modeling Relational Data with Graph Convolutional Networks

    arXiv:1703.06103v4 文章目录 1.Introduction 2.神经关系建模(Neural relational modeling) 2.1 关系图卷积网络(Relational g ...

最新文章

  1. 神经网络?决策树?都做不到!谁能解决可解释性AI?
  2. ftl if else判断_07.合意就执行,不行就拉倒-if/else条件控制(一)
  3. php %3f,PHP
  4. 决策树构建算法之—C4.5
  5. 数据结构中缀表达式转后缀表达式与后缀表达式的求值实训报告_动图+源码,演示 Java 中常用数据结构执行过程及原理...
  6. Android相对布局(RelativeLayout)常用属性、练习使用按键、文本框等控件、线性布局(LinearLayout)属性
  7. 手风琴案例jquery写法
  8. 放大缩小保证div对齐_NFS Write IO 不对齐深度分析
  9. ORACLE 11G负载均衡测试
  10. 北京链安:火币生态链Heco主网上线一月,已达到以太坊峰值5倍处理能力
  11. [译] JavaScript 中的私有变量
  12. linux root权限_怎样在Linux内核中埋炸弹获取root权限lt;2/2gt;终结篇
  13. PHP多进程网络爬虫
  14. web测试和app测试的区别你知道吗?
  15. tushare基本用法
  16. matlab画图实例_自定义函数
  17. .NET 开源GIS解决方案一 概述
  18. DT算法(暗像元法)在C6.1中的改进:Aerosol Dark Target (10km 3km) Collection 6.1 Changes
  19. 从内观修行的角度看正念疗法
  20. java中如何在键盘中输入一串以逗号隔开数字然后存入数组中,并输出。

热门文章

  1. 国产操作系统有哪些?Linux系统撑起一片天
  2. spark 大型项目实战(三十一): --性能调优之在实际项目中使用fastutil优化数据格式
  3. 计算机内存多大够用,内存多大才够用?谈谈内存占用的那些秘密
  4. 【摘抄】Serverless概念与说明,Baas和Faas
  5. MacOS 开发 — NSOpenPanel NSSavePanel的使用
  6. 前端如何学习?怎么学习可以学的更好?
  7. 逐渐从土里长出来的小花
  8. instanceof-说明与用法
  9. Intel X86 CPU之特权级别
  10. 随着计算机科学技术和互联网,(题文)下列各句中加点成语的使用,全都正确的一项是、①随着计算机科学技术和互联网技术的快速......