tritonserver框架部署指标评估工具metrics(二)

一、简介

之前详细了解过model-analyser工具,可以用于单个模型(或者多个模型测试,但是对于需要级联多个模型的情况,无法联调实现最佳的综合性能)。这里简单介绍一下另一个评估工具,是tritonserver 自带的小工具。相比如model-analyser,tritonsever自带的metrics性能评估指标,更加适合以下场景:

  1. 需要分析在多个模型存在级联关系的情况下,辅助开发人员寻找最佳的模型实例配置信息。
  2. 对于BLS模型来说,因为很多图像的前后处理都是在cpu端完成的,很可能整个请求的时间瓶颈都集中在cpu上计算的前后处理代码,以及GPU模型和CPU前后处理时间不匹配导致的排队时延上。metrics工具可以分析在每个模块上的计算时间和排队时间。开发人员可以根据统计的每个模块的排队时间来配置不同模块的instance数量,达到性能的最佳配置。

二、启动tritonserver的说明

默认已经成功安装了tritonserver的docker容器,挂载了响应的模型代码并启动了如下的tritonserver脚本:

 PYTHONIOENCODING=utf-8 CUDA_VISIBLE_DEVICES=3 tritonserver --model-repository=text_server_normal

此处的模型仓库是采用BLS编写的模型。
启动客户端访问代码,我采用的是locust进行多用户的并发访问。
在并发测试完成之后,通过访问下面的地址进行查看性能指标

curl localhost:8002/metrics

如果上述指令无法工作,则需要明显的添加–allow-metrics=true进行tritonserver的启动。

三、主要的指标

1. 推理请求指标

1.1 数量挂的

  1. 请求数量nv_inference_request_success/failure:表示客户端发来的请求request的数量,如果客户端发来两个请求,其中一个batch为1,另一个batch为8,请求数量为2
  2. 推理数量nv_inference_count:模型实际会处理的样例的数量,上面的例子中为9
  3. 执行数量nv_inference_exec_count:模型实际执行前向处理的数量,上面例子中为2

1.2 时间挂的:

  1. 请求时间nv_inference_request_duration_us:端到端处理一个请求的时间(包括缓存的请求)
  2. 队列时间nv_inference_queue_duration_us:计算每个模型在执行之前,在schedule队列中的等待时间
  3. 输入处理时间nv_inference_compute_input_duration_us
  4. 执行时间nv_inference_compute_infer_duration_us
  5. 输出处理时间 nv_inference_compute_output_duration_us

1.3 GPU相关的指标

包括GPU功率、GPU的利用率,GPU显存占用情况;通过设置参数 --allow-gpu-metrics True来设置

1.4. CPU相关的指标

CPU的利用率,CPU的总内存和使用内存情况。
通过参数–allow-cpu-metrics true来配置,目前这个参数只能在linux环境中设置,原理是收集/proc_filesystem中的内存信息和状态信息来实现的,比如/proc/stat and /proc/meminfo

1.5 响应缓存指标Response Cache Metrics

response cache的概念
一个推理请求可以由模型名称、模型版本和输入tensor唯一确定。response cache用于缓存历史的推理结果。如果新的请求在缓存中可以找到,那么久直接输出缓存结果,不会进行模型推理的步骤。缓存可以看成一个map,key为推理请求的模型名称、模型版本和输入tensor构成的hash值
可以通过–response-cache-byte-size这个参数设置,这个参数默认为0,也就是不会开启缓存。当设置这个参数小于1024时,效果也不好。如果需要设置这个参数,那么值大一点,但是不要超过RAM,否则也会报错。
在显示指标的时候,也会有这一类的指标。
显然当开启response cache的时候,请求的耗时会受到缓存影响(好的影响是hit的请求多了,Cache Hit Lookup Time就可以替代"Compute Input Time" / “Compute Time” / "Compute Output Time"时间;不好的影响是查询缓存造成的耗时以及插入新的请求造成的插入缓存)。

1.5.1 缓存区域的利用率nv_cache_util
1.5.2 数量挂的

  • 缓存区保存的response数量(all model) nv_cache_num_entries
  • 缓存搜寻的次数(all model) nv_cache_num_lookups
  • 缓存击中次数(all model) nv_cache_num_hits
  • 缓存未击中次数(all model) nv_cache_num_misses
  • 缓存删除次数(all model) nv_cache_num_evictions
  • 缓存击中次数(per model) nv_cache_num_hits_per_model
  • 缓存未击中次数(per model) nv_cache_num_misses_per_model

1.5.3 时间挂的

  • 缓存搜索时间:nv_cache_lookup_duration访问请求用与在缓存中查找缓存响应的累积时间,统计所有模型的累积时间
  • 缓存插入时间:nv_cache_insertion_duration访问请求用于在缓存中插入response的累积时间,统计所有模型的累积时间
  • 缓存击中搜索时间:nv_cache_hit_lookup_duration_per_model访问请求用于在缓存中搜寻到指定的响应的查找时间,单个模型统计
  • 缓存未击中搜索时间:nv_cache_miss_lookup_duration_per_model ,不解释类似上面
  • 缓存未击中插入时间: nv_cache_miss_insertion_duration_per_model,不解释,类似上面。

为服务配置合适的实例数量

为服务配置合适的实例数量,需要综合考虑GPU占用,CPU利用率的变化情况以及服务内部模型以及python_backend之间服务速度以及关系。
举例说明:
模型说明,这是一个通用文字识别服务,入口调用接口为text_server_normal,内部顺序调用了文字检测python接口text_detection_craft和文字识别的python接口text_recognition_cn.因为采用BLS书写,因此上面提到的三个接口中都是python的前后处理流程,也就是在cpu上运行的。text_detection_craft接口会调用text_detection_craft_model这个文字检测模型;text_recognition_cn会调用text_recognition_cn_model这个文字识别模型,这两个模型都是在GPU上运行的。
目录结构如下所示

当开启服务的时候,triton启动的服务列表如下所示:
统统计一下压力测试之后,metrics上的指标如下:

首先所有的实例数量都配置为1,locust的压力测试我的初始配置为4个客户端访问,访问时间为2min;这两分钟一共处理了254个完整的通用文字服务,吞吐量为2.11req/s. 后面的两列是metrics统计的信息。

请求处理时间

上表中的第6列为我自行摘录的metrics统计信息,metrics上的数据用微秒计算单位,我这边换成了秒为单位。
请求时间包括CPU/GPU在各个接口上的计算时间。设置了多个instance,那么这里的处理时间还是默认包含CPU调度和GPU调度开销的时间。因此在运行的时候,需要关注一下CPU的利用率,如果利用率过载了,那么这个请求时间会因为CPU的卡调度算法而导致时间开销较长,我们在配置的时候应该尽量避免CPU过载的情况。

面对上面这样展示的请求时间开销,应该怎么分析?

因为主入口为text_server_normal,且内部不存在多线程的调用,是顺序调用的。需要等待文字检测和文字识别都完成之后才会处理后面一个请求,因此这里的排队时间都集中在主接口上,这很正常。这里主要关注一下每个模块的时间开销:
文字检测模型text_detection_craft_model的时间开销最小为6,文字检测的后处理开销为29,为了尽量减小调度时间,文字检测前后处理的实例数量设置为2倍比较合适。
在这里请求的图片中包含了25个文本框,因此一次文字检测服务后续需要25次文字识别服务,一般正常的文本图片也基本是这个情况。可以看到文字识别模型的服务时间是文字检测的8倍,文字识别前后处理和文字识别的时间类似。考虑到减少调度时间和避免CPU过载影响效率,设置这两个接口的instance数量为3倍。(虽然两个处理时间相差倍数很大,按照直觉应该成倍配置,但是实际测试发现如果真的设置成4个instance以上的配置,那么CPU时间片大概率会过载)
所有的请求都需要从入口函数text_server_normal进入,因此这里的instance数量也设置为3。
如此设置之后,进行压力测试:(注意,在压力测试的过程中,需要关注服务器的GPU显存利用率和CPU显存的利用率,如果CPU过载了,这会导致调度时间占请求时间的比率较大,不是一个合适的配置,需要降低instance的配置或者GPU长时间在100%)。

在top指令中可以看到tritonserver和triton_python_backend的CPU计算资源占用情况,当设置的instance数量过大的时候,过载问题就比较突出。

排队时间

排队时间就是在真正进入接口之前,请求在队列中的时间。
在所有的instance为1的配置中,我们发现排队时间主要集中在入口函数中。在后面的配置中,扩大入口函数的instance数值,就会观察到新的堵塞点。通过调高阻塞点接口的instance数值就可以寻找到更优的性能点。
需要注意的是,随着所有接口的instance数量的提高,很可能会导致CPU过载,导致整个服务的访问性能变差。因此需要观察CPU的计算占用情况。适当调整。

注意事项以及总结

服务的吞吐量和什么配置相关?

  1. 首先肯定和模型的运行速度相关;选择计算量更加小的模型
  2. 和CPU上的python处理脚本相关,如果有很多图像前后处理操作,那么速度会慢一点;
  3. 需要合适比率的配置,因为堵塞点可能会不停变化,需要寻找到比较稳定的参数配置,这个参数配置既能够减少系统的排队时间,又不会因为CPU的过载导致请求处理时间变长。
  4. 压测系统的客户数量,压测中需要充分测试接口的性能,一般从4U到8U进行测试。

参考文章

Metrics官方文档

tritonserver的metrics参数说明相关推荐

  1. Hadoop记录-JMX参数

    Yarn metrics参数说明 获取Yarn jmx信息: curl -i http://xxx:8088/jmx Hadoop:service=ResourceManager,name=FSOpD ...

  2. 国产文件服务器十大品牌,国产服务器十大品牌

    国产服务器十大品牌 内容精选 换一换 本文基于自建开源Cassandra与华为云GaussDB(for Cassandra),进行了性能对比测试,具体包括测试环境.测试模型和详细的测试步骤,作为性能参 ...

  3. tensosflow.keras.Sequential 的 evaluate() 函数总结

    def evaluate(self, x=None, y=None, batch_size=None, verbose=1, sample_weight=None, steps=None, callb ...

  4. 从头到尾使用Geth的说明-3-geth参数说明和环境配置

    1.参数说明 ETHEREUM选项:--config value TOML 配置文件--datadir "/home/user4/.ethereum" 数据库和keystore密钥 ...

  5. SpringBoot2.0 Actuator 监控参数说明

    主要内容更 监控参数说明 Maven坐标 <dependency><groupId>org.springframework.boot</groupId><ar ...

  6. Hystrix使用说明,配置参数说明

    一.什么情况下会触发fallback方法? 名字 描述 触发fallback EMIT 值传递 NO SUCCESS 执行完成,没有错误 NO FAILURE 执行抛出异常 YES TIMEOUT 执 ...

  7. 使用sklear.metrics计算precision等指标

    在Precision.Recall.F1-score.Micro-F1.Macro-F1.Recall@K文章中介绍了一些分类指标的理论,计算方式.在本文中将介绍使用sklearn.metrics库来 ...

  8. sklearn中的metrics.roc_auc_score评价指标

    参数说明 from sklearn.metrics import roc_auc_score roc_auc_score(y_true, y_score, *, average='macro', sa ...

  9. halcon模板匹配实践(1)算子参数说明与算子简介

    create_shape_model(Template : : NumLevels, AngleStart, AngleExtent, AngleStep, Optimization, Metric, ...

最新文章

  1. 输入引脚时钟约束_Happy Design in Vivado 系列:时序分析入门三板斧(一):创建时钟...
  2. Fiddler无法抓取HTTPS的问题,Fiddler证书无法安装终极解决方案,
  3. lucene LZ4 会将doc存储在一个chunk里进行Lz4压缩 ES的_source便如此
  4. 将公用文件夹从Exchange2010迁移到 Exchange 2013
  5. .net core 微服务_.NET 微服务实战之负载均衡(上)
  6. java用继承编写宠物乐园_MoreThanJavaDay 5:面向对象进阶继承详解
  7. 妇产科2020年发表的SCI论文大数据分析
  8. hdu3033---加限制条件的0-1背包
  9. 嵌套套娃,MySQL子查询,单行与多行子查询,相关和不相关(关联)子查询,完整详细可收藏
  10. 用Python爬取Bilibili视频,难吗?
  11. matlab自带四旋翼算例asbQuadcopter使用心得
  12. PyTorch 1.0 中文文档:torch.autograd
  13. Springboot整合一之Springboot整合RabbitMQ
  14. 配置 iTerm2 记录
  15. 斯坦福吴恩达团队公布最大医学影像数据集
  16. Swing组件集合的事件处理(六)
  17. 底部任务栏桌面计算机怎么删除,桌面下方的任务栏总是隐藏怎么办
  18. wpf-折线图绘制2-oxyplot-1
  19. 维特智能IMU 接入ROS发布IMU数据类型话题
  20. 图文手把手教程--ESP32 MQTT对接EMQX本地服务器(VSCODE+ESP-IDF)

热门文章

  1. 轻量级复式记账工具Beancount推荐使用心得
  2. linux wol 戴尔工作站,linux 通过wol远程开机【转】
  3. 移动搜索关键字SEO:如何添加移动关键字!
  4. git clone使用指定用户名和密码
  5. MySQL——表的导出和导入
  6. CPU被挖矿,Redis竟是内鬼。
  7. parameter estimation for text analysis
  8. match在java中文翻译_match是什么意思_match的翻译_音标_读音_用法_例句_爱词霸在线词典...
  9. 什么是BFC?以及形成BFC的条件
  10. 非诚勿扰 11位骗子全是托 愚乐节目 愚弄观众 请勿相信节目内容