2021-ACS-IGN: A Novel and Efficient Deep Graph Representation Learning Framework for Accurate


Paper: http://pubs.acs.org/doi/10.1021/acs.jmedchem.1c01830

Code: https://github.com/zjujdj/InteractionGraphNet/tree/master

InteractionGraphNet:一种新颖高效的深度图表示学习框架,用于准确的蛋白质-配体相互作用预测

本文由浙江大学智能创新药物研究院侯廷军教授团队, 浙江大学计算机学院吴健教授团队,中南大学曹东升团队和腾讯量子实验室联合在药物化学领域权威期刊 Journal of Medicinal Chemistry发表的一篇文章。改文章提出了一个名为InteractionGraphNet(IGN)的新型深度图表示学习框架,用于从蛋白质 - 配体复合物的3D结构中学习蛋白质 - 配体相互作用。在IGN中,堆叠了两个独立的图卷积模块,以顺序学习分子内和分子间的相互作用,并且学习到的分子间相互作用应用于下游的任务预测, 包括结合亲和力预测、大规模基于结构的虚拟筛选和姿态预测,实验表明,与其他最先进的基于 ML 的基线和对接程序相比,IGN 取得了更好或更具竞争力的性能。

数据集

四个数据集,包括PDBBind V2016(2016版),DUD-E, DEKOIS2.0 和LIT-PCBA

模型

IGN模型的详细框架,该模型主要包括五个模块:图表示模块,分子内图卷积模块,分子间图卷积模块,图池模块和任务网络模块(图1)。

嵌入化学和 3D 结构信息的图形表示

该模块总共使用三个分子图来编码蛋白质-配体复合物的分子内相互作用和分子间相互作用,即配体图(Gl=(Vl,El))(G_l = (V_l, E_l))(Gl​=(Vl​,El​)),蛋白质图(Gp=(Vp,Ep))(G_p = (V_p,E_p))(Gp​=(Vp​,Ep​))和蛋白质-配体图(Gpl=(Vpl,Epl))(Gpl =(V_{pl},E_{pl}))(Gpl=(Vpl​,Epl​))。相应的邻接矩阵 AijlA_{ij}^lAijl​、AijpA_{ij}^pAijp​ 和 AijplA_{ij}^{pl}Aijpl​ 定义如下:
Aij1={1,if i,j∈ligand atoms and i,jare connected 0,otherwise A_{i j}^1=\left\{\begin{array}{l} 1, \quad \text { if } i, j \in \text { ligand atoms and } i, j \text { are connected } \\ 0, \text { otherwise } \end{array}\right.Aij1​={1, if i,j∈ ligand atoms and i,j are connected 0, otherwise ​

Aijp={1,if i,j∈protein atoms and i,jare connected 0,otherwise A_{i j}^{\mathrm{p}}=\left\{\begin{array}{l} 1, \quad \text { if } i, j \in \text { protein atoms and } i, j \text { are connected } \\ 0, \text { otherwise } \end{array}\right.Aijp​={1, if i,j∈ protein atoms and i,j are connected 0, otherwise ​

Aijpl={1,if i∈ligand atoms and j∈protein atoms and dij<8A˚1,if j∈protein atoms and i∈ligand atoms and dij<8A˚0,otherwise A_{i j}^{\mathrm{pl}}=\left\{\begin{array}{l} 1, \quad \text { if } i \in \text { ligand atoms and } j \in \text { protein atoms and } d_{i j} \\ <8 \AA \\ 1, \quad \text { if } j \in \text { protein atoms and } i \in \text { ligand atoms and } d_{i j} \\ <8 \AA \\ 0, \text { otherwise } \end{array}\right.Aijpl​=⎩⎨⎧​1, if i∈ ligand atoms and j∈ protein atoms and dij​<8A˚1, if j∈ protein atoms and i∈ ligand atoms and dij​<8A˚0, otherwise ​

其中Gpl=(Vpl,Epl)G_{pl} =(V_{pl},E_{pl})Gpl​=(Vpl​,Epl​)是一个二分图,它的每一个边缘连接蛋白质中的一个原子和配体中的另一个原子。二分图在生物分子中的成功应用已有报道。dijd_{ij}dij​是两个原子之间的欧几里得距离,这样的定义假设两个蛋白质配体成对原子之间的某些相互作用存在于GplG_{pl}Gpl​中的阈值dijd_{ij}dij​内。在这里,dijd_{ij}dij​ 设置为结合亲和力预测任务的 8A˚8 Å8A˚,以及大规模 SBVS 和位姿预测任务的 5A˚5Å5A˚。该阈值是经验性的和可优化的,其他一些阈值(例如 333 和 12A˚12 Å12A˚)也进行了简单的测试。但是,综合考虑精度和可计算性,8A˚8Å8A˚的选择总体上是不错的。配体或蛋白质中的分子内相互作用由原子之间的共价键表示,并且为了计算效率的目的,不考虑配体或蛋白质中的非键合原子。所有配合物均经过预处理,得到具有节点特征和边缘特征的相应分子图。对于 GlG_lGl​ 和 GpG_pGp​,它们共享支持信息表 S7 中描述的一组 2D 节点描述和 2D 边缘描述。


由于蛋白质-配体相互作用受到3D空间中原子之间的空间距离和方向的严格控制,因此设计了另一组与3D结构相关的几何特征,包括距离,角度统计,面积统计和距离统计,作为GlG_lGl​和GpG_pGp​的外边特征。这些特征是基于原子的空间坐标计算的,它们对于蛋白质-配体复合物的旋转和平移是不变的,其中旋转和平移不变性在3DCNN表示的一些评分函数中通常缺失。该算法的伪代码和公式显示在支持信息表 S8 中。对于 GPLG_{PL}GPL​,初始节点特征直接继承自分子内图卷积模块(图 1),边缘特征仅包括两个连接原子的直观欧几里得距离。

分子内图卷积模块。本模块旨在学习GlG_lGl​和GpG_pGp​的节点表示,这些表示主要由连接的原子和键的化学环境决定。本模块的学习过程包含三个步骤:

  • 步骤1:获取节点的初始表示;
  • 步骤2:通过消息传递的K次迭代更新节点的表示形式;
  • 步骤3:提取 GlG_lGl​ 和 GpG_pGp​ 节点的最终表示。

本模块中使用的一般符号如下:aia_iai​表示原子iii的初始原子特征,维度为F1; bijb_{ij}bij​表示绑定 ijijij的初始绑定特征,维度为 F2,下标 ijijij 表示从节点 iii 发送到节点 jjj(即从源节点到目标节点)的消息;hithithit 是节点 iii 在时间步 ttt 处的表示;N(i)N(i)N(i) 表示节点 iii 的相邻节点;DDD 是节点隐藏状态的维度;D′D^{'}D′ 是门控循环单元 (GRU) 的输入大小;∣∣||∣∣是串联操作;LeakyReLU、ELU 和 ReLU 是非线性激活;BN 是批处理规范化操作。

本模块的三个步骤的详细信息如下:
第 1 步:获取节点的初始表示

ainew =LeakyReLU⁡(w1ai),w1∈RD×F1bijnew =LeakyReLU⁡(w2[ai∥bij]),w2∈RD×(F1+F2)sij=LeakyReLU⁡(w3[ajnew ∥bijnew ]),w3∈R1×2Dαij=exp⁡(sij)∑kεN(i)exp⁡(sik)mi=ELU⁡(∑kεN(i)αikw4biknew ),w4∈RD′×Dhi0=ReLU⁡(GRU⁡(mi,ainew ))\begin{aligned} & a_i^{\text {new }}=\operatorname{LeakyReLU}\left(w_1 a_i\right), \quad w_1 \in \mathbb{R}^{D \times F 1} \\ & b_{i j}^{\text {new }}=\operatorname{LeakyReLU}\left(w_2\left[a_i \| b_{i j}\right]\right), \quad w_2 \in \mathbb{R}^{D \times(F 1+F 2)} \\ & s_{i j}=\operatorname{LeakyReLU}\left(w_3\left[a_j^{\text {new }} \| b_{i j}^{\text {new }}\right]\right), \quad w_3 \in \mathbb{R}^{1 \times 2 D} \\ & \alpha_{i j}=\frac{\exp \left(s_{i j}\right)}{\sum_{k \varepsilon N_{(i)}} \exp \left(s_{i k}\right)} \\ & m_i=\operatorname{ELU}\left(\sum_{k \varepsilon N_{(i)}} \alpha_{i k} w_4 b_{i k}^{\text {new }}\right), \quad w_4 \in \mathbb{R}^{D^{\prime} \times D} \\ & h_i^0=\operatorname{ReLU}\left(\operatorname{GRU}\left(m_i, a_i^{\text {new }}\right)\right) \end{aligned}​ainew ​=LeakyReLU(w1​ai​),w1​∈RD×F1bijnew ​=LeakyReLU(w2​[ai​∥bij​]),w2​∈RD×(F1+F2)sij​=LeakyReLU(w3​[ajnew ​∥bijnew ​]),w3​∈R1×2Dαij​=∑kεN(i)​​exp(sik​)exp(sij​)​mi​=ELU​kεN(i)​∑​αik​w4​biknew ​​,w4​∈RD′×Dhi0​=ReLU(GRU(mi​,ainew ​))​

其中 ainewa_i^{new}ainew​ 和 bijnewb_{ij}^{new}bijnew​ 由初始原子特征 aia_iai​ 和键特征 bijb_{ij}bij​ 的线性变换生成,然后根据 eqs 4 和 5 进行非线性激活。然后,通过方程6计算两个连接的原子iii和jjj之间的非规范化注意力得分sijs_{ij}sij​。方程7中的softmax函数用于归一化每个原子连接键上的注意力得分。接下来,使用方程 8 中定义的消息函数来计算 atom i 的加权传入消息 mim_imi​。最后,使用GRU和非线性激活作为原子更新函数,将变换后的初始原子特征ainewa_i^{new}ainew​融合并接受消息mim_imi​到atom iii: hi0h_i^0hi0​的初始表示中。

步骤 2:通过消息传递的 kkk 次迭代更新节点的初始表示

sijl=LeakyReLU⁡(w1l[hil−1∥hjl−1]),w1l∈R1×2Dαijl=exp⁡(sijl)∑kεN(i)exp⁡(sikl)mil=ELU⁡(∑kεN(i)αiklw2lhkl−1),w2l∈RD′×Dhil=ReLU⁡(GRU⁡(mil,hil−1))hil=BN⁡(hil)\begin{aligned} s_{i j}^l & =\operatorname{LeakyReLU}\left(w_1^l\left[h_i^{l-1} \| h_j^{l-1}\right]\right), \quad w_1^l \in \mathbb{R}^{1 \times 2 D} \\ \alpha_{i j}^l & =\frac{\exp \left(s_{i j}^l\right)}{\sum_{k \varepsilon N_{(i)}} \exp \left(s_{i k}^l\right)} \\ m_i^l & =\operatorname{ELU}\left(\sum_{k \varepsilon N_{(i)}} \alpha_{i k}^l w_2^l h_k^{l-1}\right), \quad w_2^l \in \mathbb{R}^{D^{\prime} \times D} \\ h_i^l & =\operatorname{ReLU}\left(\operatorname{GRU}\left(m_i^l, h_i^{l-1}\right)\right) \\ h_i^l & =\operatorname{BN}\left(h_i^l\right) \end{aligned}sijl​αijl​mil​hil​hil​​=LeakyReLU(w1l​[hil−1​∥hjl−1​]),w1l​∈R1×2D=∑kεN(i)​​exp(sikl​)exp(sijl​)​=ELU​kεN(i)​∑​αikl​w2l​hkl−1​​,w2l​∈RD′×D=ReLU(GRU(mil​,hil−1​))=BN(hil​)​

该模块使用的消息传递主要包含四个阶段:对连接、注意力分数计算、消息聚合和原子隐藏状态更新(图 2A)。
步骤 3:获取最终节点表示
hit+1=∑t=1khith_i^{t+1}=\sum_{t=1}^k h_i^thit+1​=∑t=1k​hit​
使用最后一个隐藏层中的节点表示进行后续任务的研究不同,作者采用了混合节点表示聚合,通过跳过连接将每个隐藏层中的节点表示聚合到最终节点表示中,这种混合聚合方式可以缓解聚合半径增大带来的过平滑问题,同时提高节点的多样性。

分子间图卷积模块

由于配合物中的分子间相互作用主要由蛋白质原子和配体原子之间的非共价/非键相互作用决定,因此该模块旨在学习有效描述GplG_{pl}Gpl​中蛋白质原子和配体原子之间成对原子相互作用的边缘表示(图2B)。同样,此模块中使用的通用符号列出如下:BijB_{ij}Bij​表示 GplG_{pl}Gpl​中边 ijijij的初始边特征;HiH_iHi​表示 GplG_{pl}Gpl​中节点 iii的初始原子特征。
Hi=hit+1Bijnew =MLP⁡([Bij∥(Hi+Hj)])Bijnew =BN⁡(Bijnew )\begin{aligned} & H_i=h_i^{t+1} \\ & B_{i j}^{\text {new }}=\operatorname{MLP}\left(\left[B_{i j} \|\left(H_i+H_j\right)\right]\right) \\ & B_{i j}^{\text {new }}=\operatorname{BN}\left(B_{i j}^{\text {new }}\right) \end{aligned}​Hi​=hit+1​Bijnew ​=MLP([Bij​∥(Hi​+Hj​)])Bijnew ​=BN(Bijnew ​)​
其中 GplG_{pl}Gpl​ 中节点 iii的初始特征直接继承自 GlG_lGl​和 GpG_pGp​中相应的最终节点表示,该表示根据方程 16 在 3D 空间中编码共价化学环境。GplG_{pl}Gpl​中新增的边表示 ,其中两个连接原子的初始原子特征和初始边缘特征之和的串联被馈送到多层感知器 (MLP) 中以产生表示,并且这样的设计逻辑旨在强制边缘 ijijij和 jijiji共享相同的表示。同样,批量规范化操作用于加速深度网络的训练。

图形池化模块

图池旨在提取分子图的全局表达式。在蛋白质-配体识别的基本物理原理的驱动下,图池模块仅适用于Bnew,可以将其视为学习成对原子非键相互作用以产生复合物的分子间相互作用(图2C)。

其中具体的函数形式由模型自动学习。本模块中使用的一般符号如下:tanhtanhtanh 是非线性激活;EplE_{pl}Epl​是 GplG_{pl}Gpl​ 中的边集;D′′D^{′′}D′′, MLP 的输出维度;MAXPOOl 是边特征所有值的元素最大值。
G1∗=∑tanh⁡(w1∗Bijnew)∗Bijnew,∀ij∈Ep1,w1∗∈R1×D′′Bnew=Bijnew,∀ij∈EplG2∗=MAXPOOl⁡(Bnew)G∗=[G1∗∥G2∗]\begin{aligned} & G_1^*=\sum \tanh \left(w_1^* B_{i j}^{\mathrm{new}}\right) * B_{i j}^{\mathrm{new}}, \quad \forall i j \in E_{\mathrm{p} 1}, w_1^* \in \mathbb{R}^{1 \times D^{\prime \prime}} \\ & B^{\mathrm{new}}=B_{i j}^{\mathrm{new}}, \quad \forall i j \in E_{\mathrm{pl}} \\ & G_2^*=\operatorname{MAXPOOl}\left(B^{\mathrm{new}}\right) \\ & G^*=\left[G_1^* \| G_2^*\right] \end{aligned}​G1∗​=∑tanh(w1∗​Bijnew​)∗Bijnew​,∀ij∈Ep1​,w1∗​∈R1×D′′Bnew=Bijnew​,∀ij∈Epl​G2∗​=MAXPOOl(Bnew)G∗=[G1∗​∥G2∗​]​
其中图形池化 G∗G^*G∗ 的输出由加权和池化 G1∗G_1^*G1∗​ 和最大池化 G2∗G_2^*G2∗​ 组合而成。这种考虑可以利用多视图的信息,其中最大池化可以突出显示信息强度最高的边要素,加权和池化可以利用边要素的总信息强度。

任务层模块

批量归一化层增强的FCNN被用作最终蛋白质-配体相互作用预测的任务网络,因为它能够成为任何非线性函数的通用逼近器。训练目标是最小化损失函数。给定一个包含 N 个样本的数据集,某个样本的预测值和真实值分别为 y^iŷ_iy^​i​和 yiy_iyi​。结合亲和力预测任务(回归任务)的损失函数(MSE损失),SBVS和姿势预测任务(分类任务)的损失函数
MSE loss =1N∑i=1N(yi−yi^)2focal loss =−1N∑i=1Nα(1−sigmoid⁡(y^))γlog⁡(sigmoid⁡(y^))\begin{aligned} & \text { MSE loss }=\frac{1}{N} \sum_{i=1}^N\left(y_i-\hat{y_i}\right)^2 \\ & \text { focal loss }=-\frac{1}{N} \sum_{i=1}^N \alpha(1-\operatorname{sigmoid}(\hat{y}))^\gamma \log (\operatorname{sigmoid}(\hat{y})) \end{aligned}​ MSE loss =N1​i=1∑N​(yi​−yi​^​)2 focal loss =−N1​i=1∑N​α(1−sigmoid(y^​))γlog(sigmoid(y^​))​

模型训练

评价指标

  • 采用RMSE和皮尔逊相关系数(Rp)等2个主要指标对回归模型(结合亲和力预测任务)质量进行评价。
  • 对于SBVS任务,五个指标包括AUC_ROC,AUC_PRC,LogAUC,BEDROC(本研究中α = 80.5)和不同阈值(0.1,0.5,1和5%)的EF。
  • 对于姿势预测任务,考三个指标,即AUC_ROC、AUC_PRC和top1成功率。

2021-ACS-IGN: A Novel and Efficient Deep Graph Representation Learning Framework for Accurate相关推荐

  1. T-PAMI-2021论文Semi-Supervised Multi-View Deep Discriminant Representation Learning阅读笔记

    提示:文 0.论文信息 题目:Semi-Supervised Multi-View Deep Discriminant Representation Learning 期刊: IEEE Transac ...

  2. GRAIL Efficient Time Series Representation Learning论文阅读笔记(二)

    GRAIL Efficient Time Series Representation Learning 有效的时间序列表示学习 作者 芝加哥大学的John Paparrizos和Michael J. ...

  3. GRAIL Efficient Time Series Representation Learning论文阅读笔记(三)

    GRAIL Efficient Time Series Representation Learning 有效的时间序列表示学习 作者 芝加哥大学的John Paparrizos和Michael J. ...

  4. GRAIL Efficient Time Series Representation Learning论文阅读笔记(一)

    GRAIL Efficient Time Series Representation Learning 有效的时间序列表示学习 作者 芝加哥大学的John Paparrizos和Michael J. ...

  5. 交通事故风险预测——《TA-STAN: A Deep Spatial-Temporal Attention Learning Framework...》

    一.文章信息 <TA-STAN: A Deep Spatial-Temporal Attention Learning Framework for Regional Traffic Accide ...

  6. 【论文笔记】半监督的多视图学习:Semi-supervised Multi-view Deep Discriminant Representation Learning

    [论文笔记]Semi-supervised Multi-view Deep Discriminant Representation Learning 1. 概念 多视图学习(Multiview Lea ...

  7. 【HRNet2019】Deep High-Resolution Representation Learning for Visual Recognition

    Deep High-Resolution Representation Learning for Visual Recognition 用于视觉识别的深度高分辨率表示学习 文章地址:https://a ...

  8. Deep Multimodal Representation Learning(深度多模态表示学习)

    多模态表示学习旨在缩小不同模态之间的异质性差距,在利用普遍存在的多模态数据中发挥着不可或缺的作用.基于深度学习的多模态表示学习由于具有强大的多层次抽象表示能力,近年来引起了人们的广泛关注. 多模态融合 ...

  9. 论文解读|2020TPAMI|Deep High-Resolution Representation Learning for Visual Recognition

    用于视觉识别的深度高分辨率表征学习 github:https://github.com/HRNet 论文地址:https://arxiv.org/pdf/1908.07919 摘要 高分辨率表示对于位 ...

最新文章

  1. GitHub使用教程详解——官网操作指南(翻译)
  2. java反射 基本知识
  3. python, 用filter实现素数
  4. 如何以可视化方式显示 Angular 应用构建后的 bundle 文件大小
  5. C++实现dijkstra单源最短路径算法-邻接表+优先队列
  6. elemenUI - 弹框组件alert - 宽度设置? - 疑问篇
  7. [211渣硕] 腾讯/阿里/携程 详细NLP算法实习 面经
  8. Leetcode每日一题:530.minimum-absolute-difference-in-bst(二叉搜索树的最小绝对值)
  9. matlab 去掉矩阵中某些元素,怎么修改矩阵中的某些元素 或者简单点说保留矩阵中的元素...
  10. texstudio 使用方法_TeXstudio怎么使用,TeXstudio使用教程解析
  11. 《Redis视频教程》(p6)
  12. MySQL2014版查询操作的入门级教学
  13. Android开发实例详解之IMF(Android SDK Sample—SoftKeyboard)
  14. Tacotron2 NVIDIA版本使用Biao-Bei数据集
  15. 基于arduino的灯光控制(easy版)
  16. matlab怀特检验,(求助)Eviews中的怀特检验,怎样确定存在异方差?
  17. 正则表达式-身份证号码验证
  18. php免费利用飞信发送验证码,php通过飞信发送短信
  19. html字重怎么设置,CSS 字重 font-weight
  20. 近视后有什么办法可以恢复吗

热门文章

  1. OpenAI研发的人工智能聊天机器人程序
  2. Linux字符设备驱动详解七(“插件“设备树实现RGB灯驱动)
  3. linux写脚本文件
  4. MR虚拟直播是什么?
  5. 贵安新区聚焦智能终端产业推进移动互联升级
  6. Hadoop安装教程_单机/伪分布式配置_Hadoop2.6.0/Ubuntu16.04
  7. 怎样在Word任意图形插入图片
  8. java 删除文件夹中的所有文件及文件夹
  9. 概念辨析 | 系统、体系、体制
  10. 离散时间信号处理/Week0