Jetson板卡算力对比 以及NX和Nano板卡上TensorRT加速测试

  • 前言
  • Jetson CUDA 算力表:
  • Xavier NX 上TensorRT测试:
  • Nano上TensorRT推理测试:

前言

  以下所有测试基于enazoe大佬的yolo-tensorrt项目进行,坏境配置比较简单。
  简单测试一下YOLOv4模型在NX和Nano上的推理速度,实际推理速度可能会有波动,如发现问题欢迎大家交流!

Jetson CUDA 算力表:

GPU 浮点算力(FP16) 整点算力(INT8) Compute Capability
Jetson AGX Xavier 11 TFLOPS 32 TOPS 7.2
Jetson Xavier NX 6 TFLOPS 21 TOPS 7.2
Jetson TX2 1.3 TFLOPS 不支持 6.2
Jetson Nano 0.5 TFLOPS 不支持 5.3

Xavier NX 上TensorRT测试:

模型 输入尺寸 加速精度 单帧耗时 FPS
YOLOv4 608X608 FP32 200 5
FP16 90 11
INT8 60 12.5
416X416 FP32 110 9
FP16 55 18
INT8 45 22
模型 输入尺寸 加速精度 单帧耗时 FPS
YOLOv4-tiny 608X608 FP32 35 28
FP16 25 40
INT8 20 50
416X416 FP32 20 50
FP16 15 66
INT8 15 66

Nano上TensorRT推理测试:

模型 输入尺寸 加速精度 单帧耗时 FPS
YOLOv4 608X608 FP32 760 1.3
FP16 570 1.7
416X416 FP32 377 2.6
FP16 275 3.6
模型 输入尺寸 加速精度 单帧耗时 FPS
YOLOv4-tiny 608X608 FP32 100 10
FP16 70 14.2
416X416 FP32 50 20
FP16 35 28.6

Jetson NX和Nano上使用TensorRT部署YOLOv4模型速度测试相关推荐

  1. 飞桨领航团AI达人创造营4-在Jetson Nano上基于python部署Paddle Inference(硬件部署)

    在Jetson Nano上基于python部署Paddle Inference(硬件部署) 一.准备好一块新鲜出炉的Jetson nano,并配好基础的开发环境 1.基础配置方法 直接参考我多年来总结 ...

  2. keras保存模型_onnx+tensorrt部署keras模型

    由于项目需要,最近捣鼓了一波如何让用tensorrt部署训练好的模型来达到更快的推理速度,期间花费了大量的时间在知乎和各种网页上去搜索别人的方案,但始终没有找到我想要的条理相对清晰的记录贴(也许只是我 ...

  3. tensorRT 部署 YOLOV5模型详解

    tensorRT 部署 YOLOV5模型详解 第一步: 下载tensorRT库 https://developer.nvidia.com/nvidia-tensorrt-8x-download 欢迎使 ...

  4. tensorrt部署YOLOv5模型记录【附代码,支持视频检测】

    训练出来的模型最终都需要进行工业部署,现今部署方案有很多,tensorflow和pytorch官方也都有发布,比如现在pytorch有自己的Libtorch进行部署[可以看我另一篇文章有讲利用Libt ...

  5. yolov5模型部署:Nvidia使用TensorRT部署yolov5s模型

    点上方计算机视觉联盟获取更多干货 仅作学术分享,不代表本公众号立场,侵权联系删除 转载于:作者丨梁彦哲@知乎(已授权) 来源丨https://zhuanlan.zhihu.com/p/38688102 ...

  6. 解锁新姿势-使用TensorRT部署pytorch模型

    一.整体流程概览 使用pytorch训练模型,生成*.pth文件 将*.pth转换成onnx模型 在tensorrt中加载onnx模型,并转换成trt的object 在trt中使用第三步转换的obje ...

  7. 20211221:Tensorrt部署解析模型uff模型

    void createngine() //生成 engine {//创建builder,第一步创建buildIBuilder* builder = createInferBuilder(gLogger ...

  8. 基于Jetson NX的模型部署

    系统安装 系统安装过程分为3步: 下载必要的软件及镜像 Jetson Nano Developer Kit SD卡映像 https://developer.nvidia.com/jetson-nano ...

  9. 使用TensorRT 和 Triton 在Jetson NX上的模型部署

    Jetson因为是基于arm的与传统基于x86的主机或服务器的模型部署略有差别,但基本类似,主要分为三步 模型转换为onnx 生成基于TensorRT的推理引擎 使用Triton完成部署 1.模型转换 ...

最新文章

  1. 关于使用sudo命令后找不到JAVA_HOME的问题
  2. 再谈fedora下的音乐和视频播放器的安装
  3. C# 把字符串类型日期转换为日期类型
  4. SAP UI5 My Opportunity应用里的 currency validation
  5. leetcode101. 对称二叉树(两种做法)
  6. 以下对c语言函数的描述中正确的是,以下对C语言函数的有关描述中,正确的是
  7. 怎么看调用的接口_SpringCloud服务间调用
  8. ubuntu下caffe的FCN8模型训练
  9. 从OpenStack到OpenInfra
  10. 快手直播怎么下载?一键轻松下载直播
  11. 在html css中加粗显示,HTML和CSS实现字体加粗的方法有哪些
  12. [NLP]OpenNLP介绍
  13. foxmail邮件备份到服务器上,foxmail发送邮件自动保存到邮件服务器的方法
  14. 《别做正常的傻瓜》 读书笔记
  15. mysql抢红包功能_Laravel框架实现抢红包功能示例
  16. 优质高效,阿里甩出SpringBoot巅峰之作,进阶不二之选
  17. JAVA实现简单的猜数字游戏
  18. Python手册--目录
  19. 后台管理系统开发流程
  20. GPT时代,最令人担心的其实是“塔斯马尼亚效应”

热门文章

  1. CAS实现SSO单点登录-CAS Server搭建
  2. mysql语法错误文件_Flyway MySQL语法错误
  3. Flink 1.9 特性学习和Blink SQL Parser 功能使用
  4. Blink内存分配器PartitionAlloc
  5. redis6.2/5.0版本windows下载安装教程(win10)
  6. routeros v6.43.2_配置自签名证书-RouterOS中级教程6
  7. 键盘按键事件 通过键盘上下左右按键移动界面上图标
  8. 网络云存储技术Windows server 2012 (项目十五 存储服务间的数据同步)
  9. IBM小型机+Oracle数据库+EMC存储设备,IOE简介
  10. 自然语言处理(NLP):11 SelfAttention和transformer Encoder情感分析