题目:CCF A-Loss-Based Attention for Deep Multiple Instance Learning

International conference on machine learning

摘要

多实例学习 (MIL) 是监督学习的一种变体,其中将单个类标签分配给一袋实例。
在本文中,我们将 MIL 问题描述为学习包标签的伯努利分布,其中包标签概率由神经网络完全参数化。此外,我们提出了一种基于神经网络的置换不变聚合算子,它对应于注意机制。值得注意的是,所提出的基于注意力的算子的应用可以深入了解每个实例对包标签的贡献。
我们凭经验表明,我们的方法在基准 MIL 数据集上实现了与最佳 MIL 方法相当的性能,并且它在基于 MNIST 的 MIL 数据集和两个真实组织病理学数据集上优于其他方法,而不会牺牲可解释性。

引入

多示例学习
假设图像清楚地代表了一个类别(一个类)。然而,在许多实际应用中,会观察到多个实例,例如,计算病理学、乳房 X 线摄影或 CT 肺筛查)中尤为明显,其中图像通常由单个标签(良性/恶性)或区域描述粗略地给出了兴趣
MIL 处理分配了单个类标签的实例包。因此,MIL 的主要目标是学习一个预测袋子标签的模型
利用包之间的相似性 (Cheplygina et al., 2015b),将实例嵌入到紧凑的低维表示中,然后进一步馈送到包级分类器、实例级分类器的响应

背景:
目前的一些方法:利用包之间的相似性 (Cheplygina et al., 2015b),将实例嵌入到紧凑的低维表示中,然后进一步馈送到包级分类器;并结合实例级分类器的响应。只有最后一种方法能够提供可解释的结果。但此类方法的实例级准确度较低。

本文:
提出了一种新方法,旨在将可解释性融入 MIL 方法并增加其灵活性。
我们使用包标签的伯努利分布来制定 MIL 模型,并通过优化对数似然函数来训练它。
对称函数的基本定理为包标签概率建模提供了一个过程:(1)将实例转化为低维嵌入;(2)一个置换不变(对称)的聚合函数;(3)对包概率的转换
本文建议使用神经网络即卷积层和全连接层的组合参数化所有转换,并允许通过优化无约束的目标函数以端到端的方式训练模型。
本文建议用可训练的加权平均值替换广泛使用的置换不变算子,例如最大算子最大值和平均算子平均值,其中权重由两层神经网络给出。两层神经网络对应于注意力机制。值得注意的是,注意力权重使我们能够找到关键实例,这些实例可以进一步用于突出可能的 ROI。

相关概念

置换不变(permutation-invariant)
       指的是特征之间没有空间位置关系
对数似然函数(log-likelihood function)
       从模型得到一个函数,优化该函数得到合适的参数;利用结果反推出导致结果的参数值参考
伯努利分布(Bernoulli distribution)
       两点分布/0-1分布
对称函数(Symmetric Functions)
函数的输出值不随输入变数的排列而改变参考
最大算子(maximum operator)
神经网络参数化
MIL 池化 σ
MIL 池化算子
最大算子
平均算子
tanh函数链接

符号系统

符号 含义
X={x1,…,xK}\boldsymbol{X}=\{\boldsymbol{x}_1,\dots,\boldsymbol{x}_K\}X={x1​,…,xK​}
xk\boldsymbol{x_k}xk​ 实例
KKK 不同包的实例数量不同
Y\boldsymbol{Y}Y 标签向量
{yi,…,yK},yk∈{0,1}\{y_i,\dots,y_K\},y_k \in \{0,1\}{yi​,…,yK​},yk​∈{0,1} 每个实例的标签
hk\boldsymbol{h}_khk​ 实例的嵌入

方法

2.1. Multiple instance learning (MIL)

通过优化对数似然函数来训练 MIL 模型,其中袋标签根据伯努利分布分布,即给定实例包 X,Y = 1 的概率

Theorem 1 包X\bold{X}X的评分函数,其中 f 和 g 是合适的变换。给出的分解对袋子概率建模的一般策略。

Theorem 2 用 max 而不是 sum 的类似分解

共同点:一种通用的三步方法来对包进行分类:(1)用函数 f 对实例进行转换(2)使用对称(排列不变)函数σ对转换后的实例进行组合(3)由f使用函数g变换的组合实例的变换

于给定的 MIL 运算符,有两种主要的 MIL 方法:(1)实例级方法 (2)嵌入级方法
我们将展示如何通过使用新的 MIL 池来修改嵌入级方法以使其可解释。

2.2. MIL with Neural Networks

神经网络 fψ(·) 参数化的变换;hk∈Hh_k \in \mathcal{H}hk​∈H;若hk∈0,1h_k \in {0,1}hk​∈0,1,则为基于实例的方法;若hk∈RMh_k \in \mathbb{R}^Mhk​∈RM,则为嵌入的方法

转换gϕg_\phigϕ​:在基于实例的方法中,变换 gφ 只是恒等式,而在基于嵌入的方法中,它也可以由具有参数 φ 的神经网络参数化

2.3. MIL pooling

两个MIL池化算子保证得分函数为对称函数:
(1)最大算子

(2)平均算子

(3)其他算子代替定理2中的max
例如凸最大算子(即 log-sum-exp)、集成分割和识别、噪声或和噪声和

2.4. Attention-based MIL pooling

所有 MIL 池化算子都有一个明显的缺点,即它们是预定义的且不可训练的。因此,灵活和自适应的 MIL 池可以通过调整任务和数据来获得更好的结果。
使用实例的加权平均值(低维嵌入),其中权重由神经网络确定。其中权重与嵌入一起是 f 函数的一部分

我们注意到 tanh(·) 非线性对于学习复杂关系可能效率低下,因此,我们建议额外使用门控机制 以及 tanh(·) 非线性:

【论文阅读】Attention-based Deep Multiple Instance Learning相关推荐

  1. 论文阅读 (90):Proposal-based Multiple Instance Learning (P-MIL, 2023CVPR)

    文章目录 1 要点 1.1 概述 1.2 一些概念 1.3 主要步骤 2 方法 2.1 候选提案生成 2.2 提案特征提取和分类 2.2.1 周围对比特征提取 2.2.2 分类头 2.3 提案微调 2 ...

  2. <论文阅读03> Clustering-based multiple instance learning with multi-view feature

    文章目录 引入 1 方法概述 2 关键技术 训练阶段 测试阶段 引入   题目:具有多视图特征的基于聚类的多实例学习 (Clustering-based multiple instance learn ...

  3. 论文阅读 (四):MILIS: Multiple Instance Learning with Instance Selection.

    文章目录 引入 学前娱乐 摘要 算法过程 训练 测试 实例选择和分类器学习 A.A.A. 包级特征表示 B.B.B. 初始化实例原型 C.C.C. 分类 D.D.D. 实例更新 引入   论文地址 学 ...

  4. 异常检测论文阅读笔记《MIST: Multiple Instance Self-Training Framework for Video Anomaly Detection》

    MIST: Multiple Instance Self-Training Framework for Video Anomaly Detection 论文来源:CVPR 2021 原论文地址链接 相 ...

  5. 论文阅读 (二十三):Attention-based Deep Multiple Instance Learning (2018)

    文章目录 1 Methodology 1.1 MIL 1.1.1 符号系统 1.1.2 实例与包的联系 1.1.3 MIL方法 1.2 MINN 1.3 MIL池化 1.4 注意力机制池化 1.4.1 ...

  6. 读:Predicting Lymph Node Metastasis Using Histopathological Images Based on Multiple Instance Lear

    论文来源: Zhao Y , Yang F , Fang Y , et al. Predicting Lymph Node Metastasis Using Histopathological Ima ...

  7. 论文阅读:Semantic Aware Attention Based Deep Object Co-segmentation(ACCV2018)

    协同分割论文:Semantic Aware Attention Based Deep Object Co-segmentation(ACCV2018) 论文原文     code 目录 1.简介 2. ...

  8. 近年多示例论文阅读(2): Multiple instance learning: A survey of problem characteristics and applications

    目录 基本信息 核心思想 基本信息 题目:Multiple instance learning: A survey of problem characteristics and application ...

  9. 论文阅读 (86):Normality Guided Multiple Instance Learning for Weakly Supervised Video Anomaly Detection

    文章目录 1 引入 1.1 题目 1.2 摘要 1.3 引用 2 方法 2.1 背景和动机 2.2 正态导向微调模块 2.2.1 正态更新 2.2.2 异常预测微调 2.3 学习目标 2.3.1 正态 ...

  10. Visual Tracking with Online Multiple Instance Learning (MIL)目标跟踪论文笔记

    1. 论文信息 论文标题 :Visual Tracking with Online Multiple Instance Learning 论文作者: Boris Babenko,University ...

最新文章

  1. 数据蒋堂 | 报表开发的现状
  2. linux命令行ps1变量_利用Shell中变量PS1定制Linux Shell命令主提示符
  3. 利用Docker搭建Redis主从复制集群
  4. 几个支持生成Python代码的UML工具
  5. JAVA面试常考系列十
  6. autoreconnect mysql true_连接数据库超时设置autoReconnect=true
  7. FinCEN就非托管加密钱包报告规则征集意见时间将截至今日12时59分
  8. 毕业设计论文封面模板
  9. Android中如何使用Intent在Activity之间传递对象[使用Serializable或者Parcelable]
  10. unity场景的结构和物体的属性导出xml文件
  11. 操作系统学习笔记:内存管理
  12. 数据结构课程设计- (二) 栈与队列(迷宫问题)
  13. 天涯怎么引流到qq?天涯社区如何靠发帖子引流?
  14. token干什么用_什么是Token?Token有什么用处?为什么使用它?Token认证又是什么?...
  15. 知物由学 | SO加固如何提升Android应用的安全性?
  16. python训练Word2Vec词向量
  17. 2022氯化工艺考试题库及答案
  18. python小于100的所有合数,python输出100以内的质数与合数
  19. 消防安全监测模块,筑牢工厂消防安全屏障
  20. 什么是安全测试?一文教会你如何开展系统安全测试…

热门文章

  1. 图像 像素与分辨率的关系
  2. 读史可以使人明智,鉴以往可以知未来
  3. R语言使用timeROC包计算无竞争情况下的生存资料多时间AUC值、使用cox模型、并添加协变量、可视化无竞争情况下的生存资料多时间ROC曲线
  4. 美年旅游_套餐管理_分页PageHelper
  5. Word文档中统一字符串八大妙法(转)
  6. 哥尼斯堡的“七桥问题”
  7. ActiveMQ高可用集群的搭建
  8. java怎么连接activemq集群_ActiveMQ之集群(主从)搭建-yellowcong
  9. MSSQL 2000 错误823恢复
  10. java——jui的应用