这是来自猎户星空的关于人脸识别的文章
作者 Chong Wang ;Xue Zhang ;Xipeng Lan
https://arxiv.org/abs/1709.02940

好久没有写博客了,水一篇。。。

一句话总结

对应triplet的训练,多采用OHNM的方式挖掘困难负样本,然而随着训练数据的增加,easy-triplet更多,困难样本的搜索空间增大,于是本文将训练数据分为若干小部分,每部分中的不同id的训练样本有着较高的相似性(个人感觉ohnm都是trick样的东西,但是大牛们还是可以写的很好)

1. Method

文章先回顾了OHNM和batch OHNM 然后提出subspace learning

1.1 OHNM

其loss 如下

简言之就是只有负样本与anchor的距离大于正样本与anchor的距离一定值才可以算做loss

如上图,由于负样本是随机选择(浅蓝)的,很多更加困难的负样本(深蓝)没有被选择

1.2 Batch OHNM


上式中,T代表整个Image Space
训练时,随机选择B个不同的id,然后负样本的选择是靠近anchor的若干个非同id的样本,这样做的 好处是负样本更加困难了,有效的训练样本更多了。

1.3 Subspace Learning

作者认为困难负样本选择有用,但是随着id数量的增多,困难负样本不能被以上两种很好的挖掘,那么就先生成一些困难的小子空间,从子空间中在做batch ohnm

其中他们做子空间的方法是:
1. 首先根据使用部分数据训练分类模型
2. 然后将一个id内的特征求均值,作为该id的特征,然后根据id的特征做k-means生成M个子空间,文中每个子空间大约包含10k个id
在子空间做ohnm的loss 如下:

2 其他

2.1 数据清洗

作者认为cnn有一定抗干扰的能力,所以就先过拟合然后再去掉没有能过拟合的样本

2.2 加快检索速度

分两步,先分id后在id内算距离

3 Experimental evaluation

直接加ohem会变差,使用subspace learning的方法会有提高。文章思想比较简单,但是还是有一定的启发性的,和平时自己做的试验也有思想性。

论文水记|How to Train Triplet Networks with 100K Identities?相关推荐

  1. 深度学习论文随记(二)---VGGNet模型解读-2014年(Very Deep Convolutional Networks for Large-Scale Image Recognition)

    深度学习论文随记(二)---VGGNet模型解读 Very Deep Convolutional Networks forLarge-Scale Image Recognition Author: K ...

  2. Stylized NeRF 水记(NeRF的风格化)

    Stylized NeRF 水记(NeRF的风格化) <StylizedNeRF: Consistent 3D Scene Stylization as Stylized NeRF via 2D ...

  3. Liquid Warping GAN 水记

    Liquid Warping GAN 水记 <Liquid Warping GAN: A Unified Framework for Human Motion Imitation, Appear ...

  4. 【论文阅读】Multimodal Fusion with Co-Attention Networks for Fake News Detection --- 虚假新闻检测,多模态融合

    本博客系本人理解该论文之后所写,非逐句翻译,预知该论文详情,请参阅论文原文. 论文标题:Multimodal Fusion with Co-Attention Networks for Fake Ne ...

  5. DCT-Net 水记(用于 人脸风格化 的 小样本 图像翻译,无需反演,无需构造配对图片)

    DCT-Net 水记(用于 人脸风格化 的 小样本 图像翻译,无需反演,无需构造配对图片) <DCT-Net: Domain-Calibrated Translation for Portrai ...

  6. 论文翻译——Weighted Residuals for Very Deep Networks

    Weighted Residuals for Very Deep Networks 论文:https://ieeexplore.ieee.org/document/7811085 最近,深度剩余网络在 ...

  7. 【论文阅读】MFAN: Multi-modal Feature-enhanced Attention Networks for Rumor Detection --- 多模态,谣言检测,注意力机制

    本博客系博主根据个人理解所写,非逐字逐句翻译,预知详情,请参阅论文原文. 论文标题:MFAN: Multi-modal Feature-enhanced Attention Networks for ...

  8. 【论文解读】Finding community structure in networks using the eigenvectors of matrices

    文章目录 一.论文主体 二.复现代码 2.1 算法大致流程 2.2 Python代码实现 三.匈牙利算法 Reference 一.论文主体 论文题目:<Finding community str ...

  9. 论文笔记 Medical Entity Linking using Triplet Network

    一.动机 实体链接(Entity Linking)或者标准化(Normalization)的目标是将文本中发现的mention链接到知识库中的标准实体.在医疗领域,疾病词的实体链接难度在于缩写.同义词 ...

最新文章

  1. linux(4)-Ptrace 系统调用的使用
  2. Shell-使用和wait让你的脚本并行执行
  3. CAD公差表以及如何算
  4. listview在java中的使用_我的Android开发之路——ListView的使用
  5. unity中脚本编辑器UnIDE
  6. Shell_Oracle Erp和其他系统Interface资料传输通过Shell进行控制(案例)
  7. 14日晚8点直播丨 经典知识库:性能优化那些事
  8. SosoApi使用手册
  9. Mysql 窗口函数
  10. 泥瓦匠之 Java 的成长感悟
  11. CentOS7和CentOS8 Asterisk 20.0.0 简单图形化界面7--对接讯时FXO网关落地
  12. 封印者无法从更新服务器获取补丁文件,封印者客户端打不开怎么办 封印者客户端打不开解决办法一览...
  13. Combining Deep Learning with Information Retrieval to Localize Buggy Files for Bug Reports
  14. 如何写好一份测试用例
  15. 保弘实业|工资低的家庭要怎么进行投资理财
  16. shell学习之查找当前目录下文件以及文件夹大小-'du'命令和'df'命令
  17. asp.net调用飞信免费发短信
  18. 计算机视觉小白入门第一问——什么是计算机视觉
  19. 【Xcode使用技巧】Xcode调试方法
  20. 省电软件测试自学,噱头还是实用?手机省电APP效果横向测试

热门文章

  1. 【PTA】 试试手气
  2. iOS - Xcode提高编译速度,增量编译,ccache
  3. Qt图形视图框架详解-安晓辉-专题视频课程
  4. 微软常用运行库合集 202206
  5. AUTOSAR_SWS_SecureOnboardCommunication(7)-功能规格 -1
  6. 洛谷P1233 木棍加工
  7. Apache Calcite 论文翻译
  8. MacOS-MacAPP使用Main.storyboard启动视图程序踩坑
  9. SkyForm CMP(云管理平台)v4.0
  10. 论文阅读:Detecting Visual Relationships Using Box Attention(ICCV19)