目录

  • 目录
  • 原文
  • 摘要

原文

原文:https://arxiv.org/abs/1702.03044
代码:https://github.com/Zhouaojun/Incremental-Network-Quantization

摘要

Incremental Network Quantization(INQ)是一种神经网络压缩方法。它以已训练的任意全精度网络作为输入,输出权值为0或2的整数次幂的网络。
通过以下两个创新点,能有效解决压缩型网络准确率下降太多的问题。一方面,网络生成由三个相互依赖的操作组成,包括a)权值分割,b)分组量化和c)再训练。每一层的权重被分成两组,一组被量化,另一组被再训练以补偿第一组量化带来的精度损失。另一方面,以上三个操作不断迭代训练网络,直到所有的权重都被压缩。
用ImageNet库进行测试,测试了AlexNet,VGG-16,GoogleNet和ResNets(18和50),在5位量化的测试中,准确率均较32位浮点型有所提高。此外,以ResNet-18为例,在4位、3位和2位的量化中,其准确率与32位浮点的精度相类似。
此外,网络裁剪和INQ结合也有很好的效果。
使用INQ有望使深度学习神经网络在移动或者嵌入式设备中得到应用。

(摘要)ICLR 2017 神经网络压缩,Incremental Network Quantization: Towards Lossless CNNs with Low-Precision Weig相关推荐

  1. INQ 论文解读:Incremental Network Quantization: Towards Lossless CNNs with Low-Precision Weights

    这篇论文是ICLR 2017的一篇量化相关的论文.本文提出了一种渐进式量化的方法( INQ ):先分组量化,然后冻结已量化的部分并训练未量化的部分,重复以上步骤多次直到所有权重都被量化.这种渐进式量化 ...

  2. INCREMENTAL NETWORK QUANTIZATION: TOWARDS LOSSLESS CNNS WITH LOW-PRECISION WEIGHTS

    在量化方面已经有很多工作了,其中一个是用每个FC层的浮点的聚类中心值来代替所有权重值,可以获得20X的压缩率,以及在top-上1%的精度损失:hash网则将所有权重放入哈希桶内,且所有共享哈希桶的权重 ...

  3. DNN模型压缩:深度神经网络压缩论文总结

    1.HanS, Mao H, Dally W J. Deep Compression: Compressing Deep NeuralNetworks with Pruning, Trained Qu ...

  4. 2021 神经网络压缩 (李宏毅

    首先,为什么需要对神经网络模型进行压缩呢?我们在之前的课程中介绍过很多大型的深度学习模型,但当我们想要将这些大模型放在算力比较小的边缘设备或者其他IoT设备里面,就需要对大模型进行压缩. Lower ...

  5. 机器学习笔记—13(李宏毅版)神经网络压缩与元学习

    神经网络压缩 一直使用云端的话,速度太慢了.并且使用云端不够私密.要在设备上直接进行智能计算,就需要神经网络压缩. network pruning,训练一个大的神经网络-->然后评估每个参数或神 ...

  6. 【论文阅读笔记】Incremental Network Quantizatio:Towards Lossless CNNs with Low-Precision Weights

    全文概括   先前的量化方法(同时量化所有的weight)都太粗暴了,这导致了量化损失严重,作者提出一种分组量化-分组re-train的方法来拟补量化带来的损失.   INQ方法步骤: 将为量化的参数 ...

  7. 【1】谷歌2021模型量化白皮书《A White Paper on Neural Network Quantization》

    2021 Google模型量化白皮书 摘要 引言 模型量化的理论基础 硬件背景 均匀仿射量化 对称均匀量化 2的幂次方量化 量化粒度 量化模拟 Batch normalization folding ...

  8. 深度神经网络压缩与加速总结

    深度神经网络压缩与加速综述 1. 深度神经网络压缩与加速的任务 2. 模型压缩与加速方法 (1) 参数剪枝 (2) 参数共享 (3) 低秩分解 (4) 紧性滤波设计 (5) 知识蒸馏 3. 深度神经网 ...

  9. Intel发布神经网络压缩库Distiller:快速利用前沿算法压缩PyTorch模型

    Intel发布神经网络压缩库Distiller:快速利用前沿算法压缩PyTorch模型 原文:https://blog.csdn.net/u011808673/article/details/8079 ...

最新文章

  1. 【k8s最容易理解的科普】到底是什么 用处是什么
  2. 支付宝PC即时到账和手机网站支付同步
  3. 【CSON原创】基于HTML5的超级玛丽游戏demo
  4. python手把手入门_新手必看:手把手教你入门 Python
  5. 为什么苹果有2500亿美刀不用,偏偏要借钱?
  6. ppt倒计时_年终会议做一个这样的倒计时PPT,保证惊艳全场!1分钟就能学会
  7. Windows 7 资源管理器搜索Channel 9 视频
  8. Android 屏幕防偷窥,Android 8.1将发布:启用TLS加密防偷窥
  9. 4.3.1深度定时器(Timer in Depth)
  10. MyBatis3教程
  11. 电子技术部下半学期第一次培训
  12. WPF实现选项卡效果(3)——自定义动态添加的AvalonDock选项卡内容
  13. JAVA API (application programming interface)
  14. 目标检测的数据集制作一般流程(Pascal VOC标准格式)
  15. java常用设计模式11—适配器模式
  16. Canny算子中的梯度求取及非最大值抑制(NMS)实现
  17. 怎样把几个PDF文档合并一个文件?
  18. 给hacke拨乱反正 黑客、红客、蓝客究竟是什么
  19. 系统级I/0之RIO
  20. 【论文阅读】三.基于智能网联车的信号交叉口更易受到拥堵型攻击

热门文章

  1. 学习python入门2
  2. 学习从来都是孰能生巧的过程
  3. java math.sin()_Java Math.sin() 方法
  4. 抖音封禁4000个炫富账号,抖音开始严厉打击丨国仁网络
  5. 总论点和分论点_反对我的论点对数字隐私无可厚非
  6. RabbitMq初识(一)
  7. 计算机视觉三大顶级会议ICCV,CVPR,ECCV
  8. mysql里字典是什么意思_mysql常用字典表(完整版)
  9. Hold time 个人理解
  10. 360 软件误报 与流氓战斗到底