CVPR

1、Deep Learning with Low Precision by Half-wave Gaussian Quantization

对流行的二进制量化方法的研究发现,它由两个函数对经典的非线性和双线性正切函数的近似组成:一个用于前馈网络计算的分段常量信号函数和一个在神经网络学习时用于后向传播的分段线性硬tanh函数。随后广泛使用的ReLU非线性的问题被提出。用于前向近似的半波高斯量化器(HWGQ)被剔除了,它利用神经网络激活层的统计信息和批量归一化,能够高效地部署。为了克服由于在前向和后向传播时使用不同的近似导致的梯度不匹配问题,几个分段的后向传播近似器被提出了。由此产生的量化网络,记为HWGQNet,它的实施被证明比之前提出的有着1位和2位量化激活层的低精度神经网络强,而与全精度的神经网络,如AlexNet、ResNet、GoogleNet和VGG-Net的表现类似。

2、Deep Visual-Semantic Quantization for Efficient Image Retrieval

由于它的计算的高效和恢复的质量,紧凑编码已被广泛地应用在用于大规模图像恢复的近似最近邻方法中。本文提出了一种聚焦于深度学习量化方法的紧凑编码解决方案,它通过端对端的表征学习和紧凑编码来提高恢复的质量,且已在相似性恢复上显出了优于哈希解决方案的性能。

作者提出了Deep Visual-Semantic Quantization(DVSQ),这是第一个通过标签图像和一般文本域下的语义信息来学习深度量化模型的方法。它主要的贡献在于,将使用精心设计的混合网络和明确指定的损失函数来共同学习深度视觉语义嵌入和视觉语义量化器。DVSQ使用基于有着快速距离查找表的学习的代码本的计算来支持最大inner-product搜索,从而获得高效和有效的图像恢复。综合经验证据表明DVSQ可以产出紧凑的二进制代码,并在benchmark上产出state-of-art的近似恢复表现。

3、Learning Deep Binary Descriptor with Multi-Quantization

在本文中,作者提出了一种用于视觉匹配的学习方法:深度二进制描述器(DBD-MQ)。现有的基于学习的二进制描述器,如紧凑二进制脸部描述器(CBFD)和DeepBit利用了刚性信号函数来二值化——不论数据分布如何,因此导致了严重的量化损失。为了解决这个限制,本文提出的DBD-MQ将二值化视作一个多量化任务。他们使用K-AutoEncoders网络来在一个深度学习框架下共同学习参数和二值化函数,从而使细粒度的多量化可以获得有辨别的二进制描述符。

4、Weighted-Entropy-based Quantization for Deep Neural Networks

量化被认为是最有效的在移动设备和嵌入式系统这样有着严格的资源限制的设备中优化神经网络的推断消耗的方法之一。在这类方法中,最关键的地方在于,要在尽可能不降低精度的情况下(比如不超过1%),提供更低耗的量化。本文提出了一种新奇的基于权重混乱概念的量化权重和激活层的方法。不同于二元权重的神经网络,作者的方法是多位量化,权重和激活层可以根据目标精确度被量化为任意数量的位。这有助于更灵活地利用由不同等级的量化提供的精度-性能权衡。不仅如此,作者的方案还提供了基于传统训练方法的自动量化流程,这大大减少了量化网络的设计时间。

5、Deep Quantization:Encoding Convolutional Activations with Deep Generative Model

深度卷积网络在视觉识别任务中有着出色的表现,但它的通过卷积层的激活来学习整体的特征还是一个问题。在本文中,作者提出了有着变分自动编码器的Fisher矢量编码,这是一种新的在深度生成模型中通过端对端地方式训练它们来量化本地卷积层的激活的深度结构。为了将FV编码策略加入到深度生成模型,作者引入了变分自动编码模型,它在神经网络中引导变分推理和学习,它可以使用标准随机梯度来直接优化。与传统的将离散混合模型简洁地拟合到数据分布上地生成模型(如高斯混合模型)为特征的FV不同,作者提出的FVVAE能够更灵活地表示神经属性来更好地泛化。

6、Performance Guaranteed Network Acceleration via High-Order Residual Quantization

输入二进制化已被证明是个有效的网络加速方法。然而,先前的二进制化方案可被视作简单的逐元素阈值处理,且在精度上有着巨大的损失。本文提出一个高阶二进制化方案,它在拥有二进制操作的同时仍能保有不错的精度。特别的,该方案递归地执行残差量化且产生了一系列有着递减幅度尺度的二进制输入图像。因此,作者提出了用于前向和后向计算的高阶二进制滤波和梯度传播操作。

7、Compressive Quantization for Fast Object Instance Search in Videos

大多数视觉搜索系统专注于图像到图像(点对点)的搜索,比如图像和目标恢复。然而,快速图像到视频(点到集合)搜寻很少被用到。本文解决了视频的目标即时搜索问题,其中高效的点到集合匹配技术是必不可少的。通过同时优化向量量化和哈希,作者提出了压缩的量化方法,将从每个视频中提出的M个建议的对象压缩为仅仅k个二进制代码,其中k<<M。随后查询的对象与整个视频的相似性可通过查询的对象的二进制代码与图像中与其最匹配的二进制代码的汉明距离确定。作者的压缩量化方法不仅确保了查询的快速,也大大减少了保存图像特征的存储成本。尽管压缩率很高,作者的压缩量化方法仍然能够有效地恢复大的视频数据集中的小的对象。

8、Incremental Network Quantization:Towards Lossless CNNs with Low-Precision Weights

本文介绍了递增网络量化(INQ),它致力于将任意预训练的卷积神经网络模型转化为权重被限制为2或0的幂的低精度版本。本方法在准确性损失方面有着优异的特点。因为一方面,作者引入了三个相互依赖的操作,即权重划分,分组量化和重训练。采用充分训练的测量来将预训练的CNN模型中每层的权重划分为两个不相交的组。第一组的权重负责形成低精度基数,因此它们可以通过可变长度编码方法来进行量化。另一组的权重则负责弥补由量化导致的精度损失,因此它们要被重训练。另一方面,这三个操作要在最新的重训练组里迭代地进行训练直到所有的权重都被转化为低精度的版本,即为递增网络量化和准确度增强过程。

9、Trained Ternary Quantization

深度神经网络被广泛地应用于机器学习应用中。然而,大型神经网络可能很难部署在功率预算有限的移动设备上。为了解决这个问题,作者提出了训练三元量化(TTQ),这种方法可以将神经网络中权重的精度降低到三值。它只会降低一点点模型的准确度,有时候甚至还会增加。它训练起来和正常的全精度模型一样容易。作者在文中强调了他们的训练量化方法,即可以同时学习三元值和三元分配。在推断过程中,只需要三元值(2位权重)和缩放因子,因此作者的模型大概是全精度模型的16分之一倍。它还可以被视作是稀疏二元权重网络,有时能够通过定制回路进行加速。

10、Learning Accurate Low-Bit Deep Neural Networks with Stochastic Quantization

低位深度神经网络对嵌入式应用来说很关键,因为它们需要网络对存储和计算的要求很低。然而,它们会受到不可避免的精度下降的影响。本文提出了随机量化(SQ)算法来学习低位DNN。其动机为以下的观察:彼时所有的训练算法在每个迭代时同时近似具有低位表示的实值元素和滤波器。对一些元素和滤波器来说量化错误可能会很小,但对另一些可能就很大,这就会在训练时导致不恰当的梯度方向,从而带来可观的精度下降。为了解决这个问题,SQ将一部分元素和滤波器转化为低位,其随机概率与量化误差成反比,同时保持其它部分保持全精度。在每次迭代时,分别用相应的梯度更新量化了的和保持全精度的部分。SQ比率会逐渐增大,直到所有网络都被量化。这个过程可以很好地弥补量化误差,因此为低位DNN提供更好的精度。

quantization 顶会文章简介 2017相关推荐

  1. quantization 顶会文章简介 2019

    1.SeerNet: Predicting Convolutional Neural Network Feature-Map Sparsity through Low-Bit Quantization ...

  2. 2017数学建模b题回顾_12月热门文章和2017年回顾

    2017数学建模b题回顾 在12月,我们在Opensource.com上总结了激动人心的开源社区内容年. 该网站吸引了637,090位唯一身份访问者,该月产生了1,072,932页浏览量. 我们发表了 ...

  3. 计算机顶会论文多少钱,计算机视觉顶会文章的解读汇总(CVPR/ECCV/ICCV/NIPS)

    计算机视觉顶会文章的解读汇总(CVPR/ECCV/ICCV/NIPS) 分享计算机视觉顶会优质论文解读集锦,不断更新中,欢迎大家补充~ 2019 CVPR 2019 论文解读集锦 http://bbs ...

  4. ECshop在文章列表页调用文章简介

    1.打开includes/lib_article.php文件: 找到:大约21行-82行代码,替换为一下 /** * 获得文章分类下的文章列表 * * @access public * @param ...

  5. 资源---2020考研---百度云---资料2(自己看文章简介)

    标题如果对你有帮助,请给我点个赞.不为别的,我就想看看我能帮助到多少像我一样的大三考研学生,谢谢了. -----------------帅某 2019/3/27 注: #不是不分享了,我一贴出百度云链 ...

  6. 计算机视觉三大顶会文章下载方法

    计算机视觉三大顶会,如CVPR,ICCV,ECCV,其文章一般都是开源open access,目前CvF(Computer Vision Foundation) open access支持CVPR与I ...

  7. 阜阳市乡镇企业中专学校计算机教师高翱简介,2017年中南林业科技大学博士研究生奖助学金...

    类似问题答案 2020年中南林业科技大学博士研究生奖助学金 奖助学金 为提高研究生待遇水平,保障研究生安心学习.潜心研究,我校统筹财政投入.科研经费.学费收入等各种资源,设立研究生国家奖学金.学业奖学 ...

  8. saltstack之基础入门系列文章简介

    使用saltstack已有一段时间,最近由于各种原因,特来整理了saltstack基础入门系列文章,已备后续不断查阅(俗话说好记性不如烂笔头),也算是使用此工具的一个总结. saltstack的前六篇 ...

  9. 【博客置顶】个人简介

    置顶说明 但凡网络被骗,网上赌博请报警,不要相信任何一个黑客会帮你解决,有能力的不会帮你,没能力的只会骗你,勿私信!!! 关于我 本科期间东华r00t ctf战队web手 一大摞没啥值得提的ctf证书 ...

  10. 该置顶的文章还是要置顶

    1. 为了整理系列性的文章,开通了个人博客,有需要的关注下,博客地址"www.xbeichenbei.com". 2. 一时兴起,开通了一个微信公众号,公众号里面会持续出一系列的W ...

最新文章

  1. 2017北京云栖大会:云效企业级协同研发专场议题揭秘!
  2. C++网络编程(一)
  3. python account_GitHub - Python3WebSpider/AccountPool: Account Pool
  4. Algorithm:C++语言实现之字符串相关算法(字符串的循环左移、字符串的全排列、带有同个字符的全排列、串匹配问题的BF算法和KMP算法)
  5. 使用Spring Data的Apache Ignite
  6. 对tf.nn.softmax的理解
  7. 深入浅出PE文件格式---自己动手打造PE Show
  8. activiti 7中文文档_如何阅读文档-以Pandas库为例
  9. php html_entity_decode使用总结
  10. GIT在Linux上的安装和使用简介
  11. 解决U盘1KB快捷方式病毒(暴风一号)方法
  12. Java Graphics2D 在图片上画(微信昵称)含有特殊符号(Emoji)的文字
  13. 以“万物零售”为主题第十届中国网上零售年会
  14. 连载]第四讲 测量准确度、重复性、复现性及标准偏差
  15. 初学VUE.js之数据绑定
  16. 记getsockopt有时偶然返回为零的异常
  17. 如何发现Synaptics病毒
  18. python猜字游戏猜三次_python 猜字游戏
  19. 鼠标点击添加动态类名active
  20. 跨境电商 Shopee 的实时数仓演进之路

热门文章

  1. 2022 社招 | 趋势科技 Linux开发 面经
  2. 华为选用ServiceHot ITSM提升运维服务能力
  3. 自定义纸张重启就没了
  4. 边境的悍匪—机器学习实战:第十七章 使用自动编码器和GAN的表征学习和生成学习
  5. mscorsvw.exe是什么
  6. springboot二手交易平台毕业设计源码290915
  7. 设计模式——设计模式中英文对照
  8. 程序猿生存指南-41 冬日归乡
  9. 2021-02-04-scrapy爬虫案例1:爬取博客园新闻版块详情页-基础入门篇
  10. 微信开发工具出现 [渲染层网络层错误]