多示例论文泛读:Revisiting Multiple Instance Neural Networks (2016 mi-Net MI-Net)
符号系统
符号 | 含义 |
---|---|
X={X1,X2,…,XN}X=\{X_1,X_2,\dots,X_N\}X={X1,X2,…,XN} | 包集合 |
X={xi1,xi2,…,ximi}X=\{x_i1,x_i2,\dots,x_{im_i}\}X={xi1,xi2,…,ximi} | 包 |
NNN | 包数量 |
mim_imi | 包大小 |
Yi∈{0,1}Y_i\in\{0,1\}Yi∈{0,1} | 包标签 |
yij∈{0,1}y_{ij}\in\{0,1\}yij∈{0,1} | 实例标签 |
训练方法
将单个包XiX_iXi传递给MINN,L层,每一层使用激活函数Hl(⋅)H^l(\cdot)Hl(⋅)
传统的多示例网络的存在实例没有标签的问题,为了解决这一问题,在网络训练的阶段,将标签看作潜在变量,最后再使用某种方法汇总实例的输出概率并得到包的输出概率。
{xijℓ=Hℓ(xijℓ−1);PiL=ML(pij∣j=1…miL−1).\left\{\begin{array}{l} x_{i j}^{\ell}=H^{\ell}\left(x_{i j}^{\ell-1}\right) ; \\ P_{i}^{L}=M^{L}\left(p_{i j \mid j=1 \ldots m_{i}}^{L-1}\right) . \end{array}\right.{xijℓ=Hℓ(xijℓ−1);PiL=ML(pij∣j=1…miL−1).
{xijℓ=Hℓ(xijℓ−1)Xiℓ=Mℓ(xij∣j=1…miℓ−1).\left\{\begin{array}{l} x_{i j}^{\ell}=H^{\ell}\left(x_{i j}^{\ell-1}\right) \\ X_{i}^{\ell}=M^{\ell}\left(x_{i j \mid j=1 \ldots m_{i}}^{\ell-1}\right) . \end{array}\right. {xijℓ=Hℓ(xijℓ−1)Xiℓ=Mℓ(xij∣j=1…miℓ−1).
训练损失
每个包的损失计算如下,网络的训练将使用随机梯度下降的标准反馈。:
Loss(Si,Yi)=−{(1−Yi)log(1−Si)+YilogSi}\operatorname{Loss}\left(S_{i}, Y_{i}\right)=-\left\{\left(1-Y_{i}\right) \log \left(1-S_{i}\right)+Y_{i} \log S_{i}\right\}Loss(Si,Yi)=−{(1−Yi)log(1−Si)+YilogSi}
多示例论文泛读:Revisiting Multiple Instance Neural Networks (2016 mi-Net MI-Net)相关推荐
- 近年多示例论文阅读(2): Multiple instance learning: A survey of problem characteristics and applications
目录 基本信息 核心思想 基本信息 题目:Multiple instance learning: A survey of problem characteristics and application ...
- 【论文泛读】 Deep Learning 论文合集
[论文泛读] Deep Learning 论文合集 文章目录 [论文泛读] Deep Learning 论文合集 Batch Normalization: Accelerating Deep Netw ...
- 【论文泛读】XFlow: Cross-Modal Deep Neural Networks for Audiovisual Classification
论文题目:XFlow: Cross-Modal Deep Neural Networks for Audiovisual Classification 时间:2019 来源:IEEE TNNLS 论文 ...
- 【论文泛读】 ResNet:深度残差网络
[论文泛读] ResNet:深度残差网络 文章目录 [论文泛读] ResNet:深度残差网络 摘要 Abstract 介绍 Introduction 残差结构的提出 残差结构的一些问题 深度残差网络 ...
- 【论文泛读】 Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift
[论文泛读] Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift ...
- 每天一篇论文 323/365 Designing Energy-Efficient Convolutional Neural Networks using Energy-Aware Pruning
每天一篇论文汇总list Designing Energy-Efficient Convolutional Neural Networks using Energy-Aware Pruning 摘要 ...
- 云计算中微服务相关论文泛读
以下是最近对于云计算中微服务系统调度论文的泛读,欢迎一起探讨问题,如需要论文请私聊. Amoeba: QoS-Awareness and Reduced Resource Usage of Micro ...
- 方面级情感分析论文泛读02:Syntax-Aware Aspect-Level Sentiment Classification with Proximity-Weighted Convolution
提示1:原文链接 提示1:代码链接 文章目录 前言 一.论文信息 二.笔记要点 2.1. 目前存在的问题 2.2. 目前解决方法: 2.3.本文方法和创新点 2.4. 实验效果 2.5. 模型结构 2 ...
- 【论文泛读】Easing Embedding Learning by Comprehensive Transcription of Heterogeneous Information Networks
Easing Embedding Learning by Comprehensive Transcription of Heterogeneous Information Networks [2018 ...
- ICRA2017三篇论文泛读
1.Convergence and Consistency Analysis for a 3-D Invariant-EKF SLAM(泛读)(ICRA2017)引用 9 摘要翻译: 在这篇文章中,我 ...
最新文章
- docker logs 查看docker容器日志
- 在codeblocks中使用C++11标准,安装及配置方法
- 查看DLL 及LIB 库导出函数方法
- java 日志框架 详解_java日志框架系列(9):logback框架过滤器(filter)详解
- 字体--Ubuntu手记之系统配置
- Robot Application Builder
- MySQL 调优基础(三) Linux文件系统
- 2013全球移动游戏产业白皮书
- 公安网络安全部门封杀的2000家淘宝钓鱼网站
- 计算机考试dw操作题,职称计算机考试Dreamweaver训练题
- 勒索病毒引出重大话题:公有云比私有云更安全?
- 《Perl语言入门》
- 计算机主板大小性能区别,电脑主板是大板好还是小板好 主板中大板和小板的区别介绍...
- 十首最美的诗,醉美了整个秋天
- 济南大学 计算机学院,于自强
- 九阴真经 正在获取服务器列表信息,九阴真经4月9日更新内容介绍_九阴真经4月9日更新公告_飞翔教程...
- Google iOS 材料设计: 入门
- matlab details
- ppt打不开服务器文件,ppt都打不开,没法活了!文件打不开的原因以及解决方法...
- Matlab坐标系绘制