符号系统

符号 含义
X={X1,X2,…,XN}X=\{X_1,X_2,\dots,X_N\}X={X1​,X2​,…,XN​} 包集合
X={xi1,xi2,…,ximi}X=\{x_i1,x_i2,\dots,x_{im_i}\}X={xi​1,xi​2,…,ximi​​}
NNN 包数量
mim_imi​ 包大小
Yi∈{0,1}Y_i\in\{0,1\}Yi​∈{0,1} 包标签
yij∈{0,1}y_{ij}\in\{0,1\}yij​∈{0,1} 实例标签

训练方法

将单个包XiX_iXi​传递给MINN,L层,每一层使用激活函数Hl(⋅)H^l(\cdot)Hl(⋅)

传统的多示例网络的存在实例没有标签的问题,为了解决这一问题,在网络训练的阶段,将标签看作潜在变量,最后再使用某种方法汇总实例的输出概率并得到包的输出概率。

{xijℓ=Hℓ(xijℓ−1);PiL=ML(pij∣j=1…miL−1).\left\{\begin{array}{l} x_{i j}^{\ell}=H^{\ell}\left(x_{i j}^{\ell-1}\right) ; \\ P_{i}^{L}=M^{L}\left(p_{i j \mid j=1 \ldots m_{i}}^{L-1}\right) . \end{array}\right.{xijℓ​=Hℓ(xijℓ−1​);PiL​=ML(pij∣j=1…mi​L−1​).​

{xijℓ=Hℓ(xijℓ−1)Xiℓ=Mℓ(xij∣j=1…miℓ−1).\left\{\begin{array}{l} x_{i j}^{\ell}=H^{\ell}\left(x_{i j}^{\ell-1}\right) \\ X_{i}^{\ell}=M^{\ell}\left(x_{i j \mid j=1 \ldots m_{i}}^{\ell-1}\right) . \end{array}\right. {xijℓ​=Hℓ(xijℓ−1​)Xiℓ​=Mℓ(xij∣j=1…mi​ℓ−1​).​

训练损失

每个包的损失计算如下,网络的训练将使用随机梯度下降的标准反馈。:
Loss⁡(Si,Yi)=−{(1−Yi)log⁡(1−Si)+Yilog⁡Si}\operatorname{Loss}\left(S_{i}, Y_{i}\right)=-\left\{\left(1-Y_{i}\right) \log \left(1-S_{i}\right)+Y_{i} \log S_{i}\right\}Loss(Si​,Yi​)=−{(1−Yi​)log(1−Si​)+Yi​logSi​}

多示例论文泛读:Revisiting Multiple Instance Neural Networks (2016 mi-Net MI-Net)相关推荐

  1. 近年多示例论文阅读(2): Multiple instance learning: A survey of problem characteristics and applications

    目录 基本信息 核心思想 基本信息 题目:Multiple instance learning: A survey of problem characteristics and application ...

  2. 【论文泛读】 Deep Learning 论文合集

    [论文泛读] Deep Learning 论文合集 文章目录 [论文泛读] Deep Learning 论文合集 Batch Normalization: Accelerating Deep Netw ...

  3. 【论文泛读】XFlow: Cross-Modal Deep Neural Networks for Audiovisual Classification

    论文题目:XFlow: Cross-Modal Deep Neural Networks for Audiovisual Classification 时间:2019 来源:IEEE TNNLS 论文 ...

  4. 【论文泛读】 ResNet:深度残差网络

    [论文泛读] ResNet:深度残差网络 文章目录 [论文泛读] ResNet:深度残差网络 摘要 Abstract 介绍 Introduction 残差结构的提出 残差结构的一些问题 深度残差网络 ...

  5. 【论文泛读】 Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift

    [论文泛读] Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift ...

  6. 每天一篇论文 323/365 Designing Energy-Efficient Convolutional Neural Networks using Energy-Aware Pruning

    每天一篇论文汇总list Designing Energy-Efficient Convolutional Neural Networks using Energy-Aware Pruning 摘要 ...

  7. 云计算中微服务相关论文泛读

    以下是最近对于云计算中微服务系统调度论文的泛读,欢迎一起探讨问题,如需要论文请私聊. Amoeba: QoS-Awareness and Reduced Resource Usage of Micro ...

  8. 方面级情感分析论文泛读02:Syntax-Aware Aspect-Level Sentiment Classification with Proximity-Weighted Convolution

    提示1:原文链接 提示1:代码链接 文章目录 前言 一.论文信息 二.笔记要点 2.1. 目前存在的问题 2.2. 目前解决方法: 2.3.本文方法和创新点 2.4. 实验效果 2.5. 模型结构 2 ...

  9. 【论文泛读】Easing Embedding Learning by Comprehensive Transcription of Heterogeneous Information Networks

    Easing Embedding Learning by Comprehensive Transcription of Heterogeneous Information Networks [2018 ...

  10. ICRA2017三篇论文泛读

    1.Convergence and Consistency Analysis for a 3-D Invariant-EKF SLAM(泛读)(ICRA2017)引用 9 摘要翻译: 在这篇文章中,我 ...

最新文章

  1. docker logs 查看docker容器日志
  2. 在codeblocks中使用C++11标准,安装及配置方法
  3. 查看DLL 及LIB 库导出函数方法
  4. java 日志框架 详解_java日志框架系列(9):logback框架过滤器(filter)详解
  5. 字体--Ubuntu手记之系统配置
  6. Robot Application Builder
  7. MySQL 调优基础(三) Linux文件系统
  8. 2013全球移动游戏产业白皮书
  9. 公安网络安全部门封杀的2000家淘宝钓鱼网站
  10. 计算机考试dw操作题,职称计算机考试Dreamweaver训练题
  11. 勒索病毒引出重大话题:公有云比私有云更安全?
  12. 《Perl语言入门》
  13. 计算机主板大小性能区别,电脑主板是大板好还是小板好 主板中大板和小板的区别介绍...
  14. 十首最美的诗,醉美了整个秋天
  15. 济南大学 计算机学院,于自强
  16. 九阴真经 正在获取服务器列表信息,九阴真经4月9日更新内容介绍_九阴真经4月9日更新公告_飞翔教程...
  17. Google iOS 材料设计: 入门
  18. matlab details
  19. ppt打不开服务器文件,ppt都打不开,没法活了!文件打不开的原因以及解决方法...
  20. Matlab坐标系绘制

热门文章

  1. im2col运算 - 一种卷积优化算法
  2. version magic 不一致问题
  3. 黑猴子的家:SVN 服务端创建资料库
  4. 十进制进制法_二进制/八进制/十进制/十六进制 怎么学会?是怎么算的方式?...
  5. 【HNOI2015】落忆枫音
  6. 国外最顶级的人工智能网站资源
  7. 数学之美系列好文,强推
  8. 每日一词20190301——比例尺和地图比例尺
  9. 最简单的正版Win10重装系统教程
  10. mac谷歌浏览器默认无痕打开