论文阅读 [TPAMI-2022] Augmentation Invariant and Instance Spreading Feature for Softmax Embedding

论文搜索(studyai.com)

搜索论文: Augmentation Invariant and Instance Spreading Feature for Softmax Embedding

搜索论文: http://www.studyai.com/search/whole-site/?q=Augmentation+Invariant+and+Instance+Spreading+Feature+for+Softmax+Embedding

关键字(Keywords)

Task analysis; Visualization; Testing; Training; Unsupervised learning; Data mining; Unsupervised learning; instance feature; softmax embedding; embedding learning; data augmentation

机器学习; 机器视觉

监督学习; 无监督学习; 细粒度视觉; 数据扩增; (深度)嵌入学习

摘要(Abstract)

Deep embedding learning plays a key role in learning discriminative feature representations, where the visually similar samples are pulled closer and dissimilar samples are pushed away in the low-dimensional embedding space.

深度嵌入学习在学习区分性特征表示中起着关键作用,在低维嵌入空间中,视觉上相似的样本被拉近,不相似的样本被推开。.

This paper studies the unsupervised embedding learning problem by learning such a representation without using any category labels.

本文通过在不使用任何类别标签的情况下学习这种表示来研究无监督嵌入学习问题。.

This task faces two primary challenges: mining reliable positive supervision from highly similar fine-grained classes, and generalizing to unseen testing categories.

这项任务面临两个主要挑战:从高度相似的细粒度类中挖掘可靠的正面监督,以及推广到看不见的测试类别。.

To approximate the positive concentration and negative separation properties in category-wise supervised learning, we introduce a data augmentation invariant and instance spreading feature using the instance-wise supervision.

为了近似分类监督学习中的正集中和负分离特性,我们引入了一种基于实例监督的数据增强不变量和实例扩展特性。.

We also design two novel domain-agnostic augmentation strategies to further extend the supervision in feature space, which simulates the large batch training using a small batch size and the augmented features.

我们还设计了两种新的领域不可知扩充策略,以进一步扩展特征空间中的监督,该策略模拟了使用小批量和扩充特征的大批量训练。.

To learn such a representation, we propose a novel instance-wise softmax embedding, which directly perform the optimization over the augmented instance features with the binary discrmination softmax encoding.

为了了解这种表示,我们提出了一种新的基于实例的softmax嵌入方法,该方法直接使用二进制解析softmax编码对增强的实例特征进行优化。.

It significantly accelerates the learning speed with much higher accuracy than existing methods, under both seen and unseen testing categories.

在可见和不可见的测试类别下,它显著加快了学习速度,比现有方法具有更高的准确性。.

The unsupervised embedding performs well even without pre-trained network over samples from fine-grained categories.

无监督嵌入即使在没有预先训练的网络的情况下也能在细粒度类别的样本上表现良好。.

We also develop a variant using category-wise supervision, namely category-wise softmax embedding, which achieves competitive performance over the state-of-of-the-arts, without using any auxiliary information or restrict sample mining…

我们还开发了一种使用分类监督的变体,即分类softmax嵌入,它在不使用任何辅助信息或限制样本挖掘的情况下,在现有技术的基础上实现了具有竞争力的性能。。.

作者(Authors)

[‘Mang Ye’, ‘Jianbing Shen’, ‘Xu Zhang’, ‘Pong C. Yuen’, ‘Shih-Fu Chang’]

论文阅读 [TPAMI-2022] Augmentation Invariant and Instance Spreading Feature for Softmax Embedding相关推荐

  1. 【论文阅读】Weakly Supervised Learning of Instance Segmentation with Inter-pixel Relations

    一篇经典的弱监督分割论文,发表在CVPR2019上面 论文标题: Weakly Supervised Learning of Instance Segmentation with Inter-pixe ...

  2. (论文阅读)2022年一些图像去雾方法的简单调研

    2022年一些图像去雾方法的简单调研 1. Self-augmented Unpaired Image Dehazing via Density and Depth Decomposition 基于密 ...

  3. 论文阅读 (86):Normality Guided Multiple Instance Learning for Weakly Supervised Video Anomaly Detection

    文章目录 1 引入 1.1 题目 1.2 摘要 1.3 引用 2 方法 2.1 背景和动机 2.2 正态导向微调模块 2.2.1 正态更新 2.2.2 异常预测微调 2.3 学习目标 2.3.1 正态 ...

  4. 【论文阅读 NeurIPS 2022】A Large Scale Search Dataset for Unbiased Learning to Rank

    文章目录 前言 Abs Intro 2.Preliminary 2.1.Ubiased Learning to Rank 2.2.Existion ULTR Datasets 3.Dataset De ...

  5. 【论文阅读笔记】MFRDet:A single-shot multi-level feature reused neural network for object detection

    论文名:A single-shot multi-level feature reused neural network for object detection 引用:Wei L, Cui W, Hu ...

  6. 【论文阅读】MAGNN: Metapath Aggregated Graph Neural Network for Heterogeneous Graph Embedding

    用于异质图嵌入的元路径聚合图神经网络 摘要 1 引言 2 准备工作 3 相关工作 3.1 GNN 3.2 异质图嵌入 4 方法 4.1 节点内容转换 4.2 元路径内部聚合 4.3 元路径间的聚合 4 ...

  7. 论文阅读:Multi-Scale Boosted Dehazing Network with Dense Feature Fusion

    代码:https://github.com/BookerDeWitt/MSBDN-DFF 目录 1. 摘要 2. 提出的方法 2.1 Multi-Scale Boosted Dehazing Netw ...

  8. 知识图谱论文阅读(十三)【2020 arXiv】Attentive Knowledge Graph Embedding for Personalized Recommendation

    题目: Attentive Knowledge Graph Embedding for Personalized Recommendation 论文链接: 代码链接: 知识图谱特征学习在推荐系统中的应 ...

  9. 论文阅读笔记《Learning for Disparity Estimation through Feature Constancy》

    0. 摘要   立体匹配算法通常由四个部分组成,包括:匹配代价计算,代价聚合,视差计算和视差优化.现有的基于CNN 的方法知识采用CNN解决了这四步中的一部分,或者使用不同的网络处理不同的步骤,使得它 ...

最新文章

  1. [html] HTML5中的article和section有什么区别?
  2. 如何生成可变表头的excel
  3. 通用职责分配软件原则之9-受保护变量原则
  4. XMLHelper 辅助类
  5. 复杂UI的组织-创建者模式-uitableview思想
  6. Hadoop权威指南:知识梳理(一)
  7. go语言链接show_api,读取网络成语
  8. DID去中心化身份认证技术调研
  9. Sentinel-哨兵机制
  10. 微信小程序页面跳转方式
  11. android背景图拉伸,解决android:background背景图片被拉伸问题
  12. 如何用 Node.js 实现一个简单的 Websocket 服务?
  13. CSS复合选择器---后代选择器、子选择器、并集选择器、伪类选择器
  14. 深度学习推荐系统中各类流行的Embedding方法(下)
  15. Xshell SSH免密登录
  16. JS——对已有元素内容进行筛选(本地搜索筛选)
  17. Angular4 幕课网
  18. 【渝粤教育】国家开放大学2018年秋季 8634-22T (1)Android智能手机编程 参考试题
  19. CentOS 之 openssl-devel 安装
  20. css溢出隐藏 /超出隐藏(补充CSS样式穿透 scoped 问题)

热门文章

  1. 别给“ERP新衣”打补丁(转)
  2. Optional int parameter ‘id‘ is present but cannot be translated into a null value
  3. 【漏洞验证】NFS 共享信息泄露漏洞
  4. 汉诺塔问题(解出来了带你看洛丽塔)
  5. sogo liaositu
  6. 配置VS Code使得输出结果 无需打断点或使用system(“pause“)无黑框
  7. 天池-一起挖掘幸福感!
  8. 集成学习案例一:幸福感预测
  9. C++学习——前进(三)
  10. Win10笔记本电脑桌面容易卡死怎么办