bazel tensorflow模型压缩
准备
msys:https://repo.msys2.org/distrib/x86_64/msys2-x86_64-20200720.exe(windows 安装必备)
bazel:https://github.com/bazelbuild/bazel/releases(国内高速:https://www.newbe.pro/Mirrors/Mirrors-Bazel/)
tensorflow:https://github.com/tensorflow
git:https://git-scm.com/download
python-包:numpy
一、ubuntu安装bazel
step1:安装依赖
sudo apt-get install openjdk-8-jdk
step2:
echo "deb [arch=amd64] http://storage.googleapis.com/bazel-apt stable jdk1.8" | sudo tee /etc/apt/sources.list.d/bazel.list
curl https://bazel.build/bazel-release.pub.gpg | sudo apt-key add -
step3:
sudo apt-get update && sudo apt-get install bazel
安装完毕!
二、bazel build tensorflow
bazel build tensorflow/tools/graph_transforms:transform_graph
注意:
- 目录是tensorflow下的tools不是tensorflow-masters下的tools
- bazel 版本不对,会提示,重装一下就行了
- 尽量使用linux,省心
执行之后输出这些,表示成功
INFO: Found 1 target...
INFO: Deleting stale sandbox base /root/.cache/bazel/_bazel_root/fbc06f9baef46cade6e35d9e4137e37c/sandbox
Target //tensorflow/tools/graph_transforms:transform_graph up-to-date:bazel-bin/tensorflow/tools/graph_transforms/transform_graph
INFO: Elapsed time: 8952.551s, Critical Path: 398.72s
INFO: 6351 processes: 6351 local.
INFO: Build completed successfully, 6382 total actions
以上,构建tensorflow就结束了(注意:过程可能耗时10多个小时,耐心等待)
三、下面对模型进行压缩
~# bazel-bin/tensorflow/tools/graph_transforms/transform_graph --in_graph=../model-XXX.pb --outputs='XXXXXX' --out_graph=../quantized_XXX.pb --transforms='quantize_weights'
输出如下表示成功:
2020-07-30 13:12:35.444070: I tensorflow/tools/graph_transforms/transform_graph.cc:317] Applying quantize_weights参数解释:
--in_graph="" string input graph file name
--out_graph="" string output graph file name
--inputs="" string inputs
--outputs="" string outputs
--transforms="" string list of transforms
--output_as_text=false bool whether to write the graph in text protobuf format
原本模型80M,压缩后20M。测试模型,与压缩前输出一致
---end
python3.5
bazel3-10-0
ubuntu16.04
bazel tensorflow模型压缩相关推荐
- tensorflow 模型压缩
模型压缩 为了将tensorflow深度学习模型部署到移动/嵌入式设备上,我们应该致力于减少模型的内存占用,缩短推断时间,减少耗电.有几种方法可以实现这些要求,如量化.权重剪枝或将大模型提炼成小模型. ...
- TensorFlow Mobilenet SSD模型压缩并移植安卓上以达到实时检测效果
之前使用TensorFlow object detect API实现了目标检测(14个手势的识别),使用的是轻量级模型Mobilenet-ssd,Mobilenet-ssd本身检测速率相较于其他模型会 ...
- 双精度浮点数转换_模型压缩一半,精度几乎无损,TensorFlow推出半精度浮点量化工具包,还有在线Demo...
鱼羊 发自 凹非寺 量子位 报道 | 公众号 QbitAI 近日,TensorFlow模型优化工具包又添一员大将,训练后的半精度浮点量化(float16 quantization)工具. 有了它,就 ...
- tensorflow手机端模型压缩
最近因为项目的需要,我们需要将tensorflow模型部署到手机端,所以必不可少的就是模型的优化加速和模型压缩,我这个文章主要是为了记录一下使用到的方法. https://github.com/ten ...
- 【嵌入式AI】CNN模型压缩(剪枝,量化)详解与tensorflow实验
1,CNN模型压缩综述 1 模型压缩的必要性及可行性 (1)必要性:首先是资源受限,其次在许多网络结构中,如VGG-16网络,参数数量1亿3千多万,占用500MB空间,需要进行309亿次浮点运算才能完 ...
- 将人工智能模型压缩到微控制器中
将人工智能模型压缩到微控制器中 Squeezing AI models into microcontrollers 当你把人工智能与物联网交叉时,你得到了什么?人工智能事物(AIoT)是一个简单的答案 ...
- 降低预测过程计算成本,这些NLP模型压缩方法要知道
编译 | 凯隐 出品 | AI科技大本营(ID:rgznai100) 近年来,基于谷歌Transformer的语言模型在神经机器翻译,自然语言推理和其他自然语言理解任务上取得了长足进展. 通过多种语言 ...
- 对话腾讯AI Lab:即将开源自动化模型压缩框架PocketFlow,加速效果可达50%
整理 | Jane 出品 | AI科技大本营 [导语]腾讯 AI Lab 机器学习中心今日宣布成功研发出世界上首款自动化深度学习模型压缩框架--PocketFlow,并即将在今年10-11月发布开源代 ...
- 性能不打折,内存占用减少90%,Facebook提出极致模型压缩方法Quant-Noise
对于动辄上百 M 大小的神经网络来说,模型压缩能够减少它们的内存占用.通信带宽和计算复杂度等,以便更好地进行应用部署.最近,来自 Facebook AI 的研究者提出了一种新的模型量化压缩技术 Qua ...
最新文章
- 万维网源代码正在被发明人拍卖,有人出价1800万,还在不断上涨
- 内核管理实战之虚地址转换为物理地址
- 关于bat的变量赋值和解析机制
- 如何使用robots禁止各大搜索引擎爬虫爬取网站
- C# WinForm中 获得当前鼠标所在控件 或 将窗体中鼠标所在控件名显示在窗体标题上...
- SQL Server 2008 修改安装路径后安装出错的解决方法
- Matlab控制精度
- 配置Apache虚拟机
- mysql置信度支持度,支持度 置信度 提升度
- iPhone文件系统:创建、重命名以及删除文件
- QQ因系统日期无法打开
- protoc 生成C++代码
- 设计模式GOF23之工厂模式01
- springboot快速入门【小白也能看懂】
- IAR的基本使用教程
- 【Fortran】CUDA+PGI Fortran安装教程
- php跳转qq临时会话,怎样做出在网页中弹出QQ临时对话框
- Jzoj5460【NOIP2017提高A组冲刺11.7】士兵训练
- graphs菜单_spss菜单栏中英文对照.ppt
- 京冀41所医院和急救中心成为北京冬奥会定点医院
热门文章
- 本地笔记软件mybase8.x破解试用用时长限制
- Total Commander常见指令与问题总结
- WAYOS版本OEM,替换WAYOS的LOGO,江边小鸟杰作啊
- Hive函数(内置函数(字符串函数,数学函数,日期函数,集合函数,条件函数,聚合函数,表生成函数)和自定义函数(自定义函数创建流程,临时函数,永久函数)))(四)
- 快应用进入快车道 商家的10亿用户红利期
- .NET 5 自定义配置(动态配置,配置中心) 案例版
- 一个很NB的数学绘图工具-geogebra
- LifeKeeper 6.0 for Windows
- 私有化搭建个人网盘 NextCloud
- 【ChatGPT】ChatGPT 能否取代程序员?