文章目录

  • 内部工具
    • 包含头文件
    • 接口使用
    • 核心指标
      • Perf Context
      • IOStats Context
  • 外部工具
    • Systemtap 工具
    • Perf工具
    • Ftrace 工具

2020.8.20 23:23 ,又到了夜深人静学习时,不断得思考总结总会让繁忙一天的大脑得到舒缓。

作为单机存储引擎,Rocksdb总会被嵌入到各个存储系统之中作为核心数据的存储,那么有理有据得“甩锅”便需要一些手段。在业务场景未达到rocksdb自身性能情况下,如何将rocksdb性能在业务中的体现合理展现给使用者,让他们心服口服得"背锅"。

本篇通过内部工具 + 外部工具 的介绍 来全面展示rocksdb 整个IO链(这个IO的范围是从rocksdb入,到文件系统write系统调用完成)上的性能获取,从而更好得决定自己是否可以潇洒"甩锅"。

内部工具

facebook顶尖工程师的不断投入,精心雕琢得社区已经让rocksdb的各个核心特性及其实现都完整展现给使用者,那么一些profling的状态也必然存在。

基本的profiling使用方式如下:

包含头文件

当然这两种头文件是不同的profling状态
iostats_context.h主要是io层面的耗时统计,比如write,read等系统调用的耗时,计数
perf_context.h 主要是内部各个子流程的耗时统计,比如写wal的耗时/请求计数,写memtable的耗时/请求计数

#include “rocksdb/iostats_context.h”
#include “rocksdb/perf_context.h”

接口使用

rocksdb::SetPerfLevel(rocksdb::PerfLevel::kEnableTimeExceptForMutex); //开启profilingrocksdb::get_perf_context()->Reset(); // 初始化perf_context对象
rocksdb::get_iostats_context()->Reset() // 初始化 iostats_context对象// ...... 调用Get/Put ,或者一些其他的IO流程rocksdb::SetPerfLevel(rocksdb::PerfLevel::kDisable); // 关闭profling//获取具体的profling结果
std::cout << rocksdb::get_perf_context()->ToString() << std::endl; //获取所有的perf 状态
std::cout << rocksdb::get_iostats_context()->ToString() << std::endl; //获取所有的iostats状态
std::cout << "get_from_memtable_time: " << rocksdb::get_perf_context()->get_from_memtable_time << "write_nanos: "<< rocksdb::get_iostats_context()->write_nanos<< std::endl; // 获取某一个具体状态的数值

简单说一下rocksdb提供的perf级别,在文件perf_level.h

enum PerfLevel : unsigned char {kUninitialized = 0,             //  什么也不监控,一般不实用这个选项kDisable = 1,                   //  关闭profling功能kEnableCount = 2,               //  仅开启count计数的profling 功能kEnableTimeExceptForMutex = 3,  //  仅开启time profiling功能,我们耗时方面分析就直接开启这个级别。//  不过使用者需要注意这里统计的耗时在不同的系统上是有差异的。kEnableTimeAndCPUTimeExceptForMutex = 4, // 仅开启cpu 耗时的统计kEnableTime = 5,  // 开启所有stats的统计,包括耗时和计数 kOutOfBounds = 6  //  这个不太理解。。。。。。。反正也用不到
};

一般耗时的分析直接用kEnableTimeExceptForMutex 这个级别,如果想要抓取所有的stats信息,包括耗时和计数,就可以使用kEnableTime功能。

详细的实现主要是在perf_context_imp.h 通过宏定义来 实现一些计数和统计的接口,也是为了减少本身统计过程中函数调用的开销。

核心指标

Perf Context

Ps: 以下的耗时统计都是取决于自己什么时候调用SetPerfLevel(rocksdb::PerfLevel::kDisable);的接口,来终止prifling。

二分查找的耗时

  • user_key_comparison_count 统计二分查找的次数,如果次数过多,可能是我们配置的comparator不是很合理。当然这个也与系统中数据量的大小,是否是冷热数据有关。

block cache或者 page cache的效率

  • block_cache_hit_count 我们从block cache中读取数据的次数
  • block_read_count 从page cache中读取数据的次数,通过和上一个指标的对比来评估block cache的miss rate,从而确定当前配置下的block cache性能。(实现上,block cache是在page cache之上的一层缓存,默认是LRU)

Get 链路的耗时统计
一般以get 开头的指标,如下是比较重要那的几个

  • get_from_memtable_time 从memtable中读取数据的耗时
  • get_from_output_files_time 从sst文件中读取数据的耗时
  • seek_on_memtable_time 查找memtable的耗时

Put 链路耗时统计
一般以 write 开头的指标,如下是几个比较重要的

  • write_wal_time 写wal的耗时
  • write_memtable_time 写memtable的耗时
  • write_pre_and_post_process_time 主要是写入数据之前的一些准备耗时,不包括wal以及memtale的写入耗时
    比如在组提交过程中,非leader的写入需要等待leader完成wal的写入之后才能开始写memtble,这一些耗时也会被计算在内
    如下代码,在开始写memtale的时候才会停止计时,如果writer是非leader,则writer的状态并不是能够写memtable的,不会进入到这个逻辑,那么非leader就会等待一段时间。

    之后还会进入ProcessWrite函数来统计即将写入前的write delay 部分的耗时
IOStats Context

如下几个重要的耗时指标,统计的总时间取决于什么时候关闭profiling接口,也可以每一个请求都统计一次。

  • write_nanos 调用write 和 pwrite系统调用的耗时
  • read_nanos 调用read和 pread系统调用的耗时统计
  • fsync_nanos 调用fsync系统调用的耗时
  • cpu_write_nanos 官方给的描述是 : cpu在write 和 pwrite的耗时
    这里应该是统计cpu的写入key-value到文件的计算耗时,因为看代码是在compaction的最终由cpu处理 ProcessKeyValueCompaction函数的起始和末尾计算了一下耗时
  • cpu_read_nanos cpu在read 和 pread的耗时
    同样read也是在上文中的函数中进行统计的,因为ProcessKeyValueCompaction的处理过程中会涉及key-value 从底层sst文件中的读取

一个简单的demo之前的统计信息:

 .......rocksdb::get_perf_context()->Reset();rocksdb::get_iostats_context()->Reset();std::vector<string> keys, values;rocksdb::WriteOptions write_option;rocksdb::Status s;/*执行具体IO操作,stats的统计是两次put,一个get的总和*/s = binlog_vec[n_db]->Put(write_option, k, rand_value);assert(s.ok());s = db_vec[n_db]->Get(rocksdb::ReadOptions(), k, &value); assert(s.ok());s = db_vec[n_db]->Put(write_option, k, rand_value);assert(s.ok());req_num ++; buff_num ++; if (!s.ok()){   cerr << "Put failed: " << s.ToString() << endl;exit(1);}   //if ( thread_id==21 && (now() - ts) >= 1.00 )if ( (now() - ts) >= 1.00 ) //每隔一秒打印一次{   time_t temp;temp = time(NULL); printf("time is :%s thread_id %ld db%d :  count=%ld, speed=%ld\n", \ctime(&temp),thread_id, n_db, req_num, buff_num);ts = now();buff_num = 0;g_time += 10; // 关闭profilingrocksdb::SetPerfLevel(rocksdb::PerfLevel::kDisable);std::cout << "get_perf_context: \n get_from_memtable_time: " << rocksdb::get_perf_context()->get_from_memtable_time<< "\nget_from_output_files_time: " << rocksdb::get_perf_context()->get_from_output_files_time << "\nblock_read_time: " << rocksdb::get_perf_context()->block_read_time << "\nseek_on_memtable_time "<< rocksdb::get_perf_context()->seek_on_memtable_time << "\nseek_min_heap_time "<< rocksdb::get_perf_context()->seek_min_heap_time << "\neek_max_heap_time "<< rocksdb::get_perf_context()->seek_max_heap_time << "\nseek_internal_seek_time "<< rocksdb::get_perf_context()->seek_internal_seek_time << "\nwrite_wal_time "<< rocksdb::get_perf_context()->write_wal_time << "\nwrite_memtable_time "<< rocksdb::get_perf_context()->write_memtable_time << "\nwrite_delay_time "<< rocksdb::get_perf_context()->write_delay_time << "\nwrite_scheduling_flushes_compactions_time "<< rocksdb::get_perf_context()->write_scheduling_flushes_compactions_time << "\n write_pre_and_post_process_time "<< rocksdb::get_perf_context()->write_pre_and_post_process_time << "\nwrite_nanos "<< rocksdb::get_iostats_context()-> write_nanos<< "\nread_nanos "<< rocksdb::get_iostats_context()-> read_nanos<< std::endl;std::string out;db_vec[n_db]->GetProperty("rocksdb.estimate-pending-compaction-bytes", &out);fprintf(stdout, "rocksdb.estimate-pending-compaction-bytes : %s\n", out.c_str());if(g_time == 60) {std::cout << "begin write" << std::endl;judge_read = false;}   } ......

输出如下,以下的耗时统计单位都是微妙:

get_perf_context: get_from_memtable_time: 838
get_from_output_files_time: 0
block_read_time: 0
seek_on_memtable_time 0
seek_min_heap_time 0
eek_max_heap_time 0
seek_internal_seek_time 0
write_wal_time 5947
write_memtable_time 2050
write_delay_time 0
write_scheduling_flushes_compactions_time 261write_pre_and_post_process_time 899
write_nanos 4513
read_nanos 0

这样,我们就可以通过简单的rocksdb内部已有的工具来进行引擎层的profiling过程排查分析,比如上层存储系统调用rocksdb接口,我们可以将我们rocksdb内部耗时完整展示出来,那么是不是我们的问题就一目了然了。

当然这样的调试过程还会有一些麻烦,我们需要侵入业务的代码,增加一些状态统计,不过结果是精确的,即使因为统计本事的耗时所产生的误差也基本都是us级的,并不影响宏观上的性能比对。

外部工具

结合内部调试工具,我们再通过外部工具进行一些rocksdb流程上耗时的抓取,这里需要对rocksdb内部实现有一定的了解, 我们需要知道抓取一些rocksdb的IO链上的函数。

抓取之前需要应用的二进制文件中包含rocksdb的符号表,即编译rocksdb需要加入-g或者-gd b参数来编译。

大体思路上,还是说先集中在rocksdb内部的耗时之上,因为我们需要明确rocksdb自己的性能上限,处理一个key的过程中,内部各个字阶段的耗时大概是什么样子的量级,相关的测试都是基于Centos7.4 3.10内核。

Systemtap 工具

Systemtap 工具是一种可以通过脚本进行自由扩展的动态追踪技术,但是因为长时间游离于内核之外,所以在RHEL系统中是比较稳定,而其他系统则容易出现异常。

反过来说,在3.x 等旧版本内核中,systemtap 相比于eBPF 是一个巨大的优势。

首先通过systemtap 来获取我们rocksdb内部子流程上的关键函数调用栈,从而帮助大家更好的分析。

如果没有stap命令,则可以通过sudo yum install system tap -y来安装systemtap工具。

比如我们抓取写WAL 函数的调用栈,编写call_trace.stp 如下

#!/bin/stapprobe process("/home/test_binary").function("rocksdb::DBImpl::WriteToWAL")  print("------------------------------------\n")print_ubacktrace()print("------------------------------------\n")}

通过sudo stap call_trace.stp | c++filt 将每次调用WriteToWAL函数的调用栈打印出来。这里如果编译rocksdb的时候采用demangle的方式,那么就不需要c++filt了, 否则会出现一些乱码,这里使用c++filt进行过滤。

最终可以看到很多wal相关的调用栈信息如下

通过调用栈,我们就大概知道了从rocksdb的IO链路到上层应用链路的调用关系, 取到了这条路径上的函数,再逐层从下向上结合后面的stap脚本进行耗时统计。

以下是一个案例,可以在binary中增加多个探针,来打印对应函数的耗时情况。

!#/bin/stapglobal timesprobe process("/home/test_binary").function("rocksdb::DBImpl::WriteImpl").return,process("/home/test_binary").function("rocksdb::DBImpl::WriteToWAL").return,process("/home/test_binary").function("rocksdb::WriteBatchInternal::InsertInto").return,process("/home/test_binary").function("rocksdb::WriteBatchInternal::Iterate").return,process("/home/test_binary").function("rocksdb::MemTable::Add").return {times[pid(), ppfunc()] += gettimeofday_us() - @entry(gettimeofday_us()) #耗时及耗时信息放在times 数组之中
}probe timer.s(10) { #每隔十秒打印一次println("========%s", execname())foreach([pid, pp] in times - limit 10) {printf("pid:%5d %50s %10ld(us)\n", pid, pp, times[pid, pp])}delete times
}

最终结果如下(这个结果显然偏高了):

========%sswapper/42
pid:98097                         rocksdb::DBImpl::WriteImpl    1510686(us)
pid:98097                        rocksdb::DBImpl::WriteToWAL    1153604(us)
pid:98097            rocksdb::WriteBatchInternal::InsertInto     574674(us)
pid:98097               rocksdb::WriteBatchInternal::Iterate     437807(us)
pid:98097                             rocksdb::MemTable::Add     257805(us)

一般不建议使用这种多个探针方式进行探测,这样会对应用程序性能有比较大的影响,systemtap的执行方式是 先转换成C代码,编译成内核模块,加载到内核中,对指定的用户程序添加探针,根据指定的行为做对应的返回。如果同时有过多的探针,那肯定会对性能有比较大的影响。

所以这里抓取 的 耗时能够和rocksdb内部统计的耗时数据核对上之后(比如writeToWAL函数的消耗),再进行逐层向上抓取,当然也可以向下抓取。

比如writeToWAL之下会调用AddRecord函数进行log文件的写入,再之下会通过Flush函数进行数据的写入,通过PosixWritableFile::Append函数 调用 PosixWrite函数,最终执行到文件系统的write系统调用之上。详细的写WAL的实现可以参考Rocksdb Wal机制 底层探索。

System tap 这个工具本身还是有很多可以研究的地方,能够极大得节省内核的调试效率(本身的执行方式就是编译成对应的内核模块,加载到系统中执行的),但是在调试用户态应用过程中除了会对应用本身性能有影响之外,其他功能方面的影响还好。

Perf工具

Perf 同样是google开发出来的可以调试用户态以及内核态应用的工具,这里还是挑一些简单的子工具来用作我们rocksdb层面的性能分析。

首先Perf 能够抓取On CPU的进程消耗调用栈,且提供一个火焰图来展示调用栈的信息。

下载FlameGraph到服务器之上,进入FlameGraph目录之后通过root用户执行如下脚本抓取对应进程的On CPU消耗,并且是调用栈的形式。

#!/bin/bashpid=$1if [ -z "$pid" ];thenperf record -F 99 -g -- sleep 180
elseperf record -F 99 -p $pid -g -- sleep 180
fiperf script > out.perf./stackcollapse-perf.pl out.perf > out.folded
./flamegraph.pl out.folded > kernel-"$pid".svg

传入进程PID,即可生成一个可视化的.svg文件,包含on cpu的进程内部各个函数的消耗情况。

当然这个只能看到一个大体的百分比,我们想要看到具体的耗时情况需要切换一下子工具。

使用perf probe来增加类似于systemtap的探针功能,不过perf的采样更加轻量级,关于内核态的调试这里也是类似的,可以提前perf list来查看 可调试的探针。

  • perf probe增加探针
    这里需要提前说明一下,因为perf probe向用户态应用增加探针时可能因为编译选项的一些问题(C++工程没有demangle),则无法找到对应探测的函数地址。建议先手动找一下函数地址,直接使用函数地址进行探测。
    通过objdump工具查看函数所处二进制文件中的偏移地址,位于打印出来的第一列

    objdump /home/test_binary --syms | c++filt | grep -i "rocksdb::rocksdb::log::Writer::AddRecord"

    增加perf 探针

    sudo perf probe -x /home/test_binary '0x0000000000f7d59c'
    

    增加成功之后会给一个类似于这样的地址 probe_test_binary:abs_f7d59c,直接复制进行接下来的采样即可。
    如果是探测内核函数,更换一下命令选项即可。

    $ perf probe --add do_sys_open
    Added new event:probe:do_sys_open    (on do_sys_open)
    You can now use it in all perf tools, such as:
    perf record -e probe:do_sys_open -aR sleep 1
    
  • perf record进行采样

    sudo perf record -e probe_test_binary:abs_f7d59c -aR sleep 60

  • perf script生成可读性报告,查看采样结果

    sudo perf script
    当然这里调试内核的时候可以增加一些参数选项:

    $ perf probe -V do_sys_openAvailable variables at do_sys_open@<do_sys_open+0>char* filenameint dfdint flagsstruct open_flags opumode_t mode
    

    从而能够使用带参数的探测选项来完成更加详细的探测信息展示:

    perf probe --add 'do_sys_open filename:string'

  • perf brobe --del 探针用完之后需要删除掉

    sudo perf probe --del probe_test_binary:abs_f7d59c

    这里的perf probe还是追踪一些调用关系的逻辑,在火焰图的分析中可以再关注rocksdb层面在当前进程中的消耗占比,大体是能够看出我们rocksdb在当前CPU下的一个压力情况。

    不过很多情况,我们还是想要更加精确得了解到系统硬件以及一些系统调用执行到情况,这个时候就需要探测一些硬件相关到事件,比如cpu cache-misses,context-switches,cpu-migrations 等CPU相关的事件,这一些数据的升高,可能系统存在大量的无效线程切换,从而导致整个CPU消耗在非IO链路之上。

    或者说我们想追踪某一个内核函数的执行情况,也可以通过perf 的tracepoints进行追踪。
    接下来简单演示一下这个perf 组合命令的使用详情:

  • perf list查看可追踪的事件

    或者通过perf list的子命令来查看具体的可采样的事件

    • perf list hw 查看可以采样的具体硬件事件,像cpu 的cache-misses,branch-misses,ref-cycle等重要指标

      简单说一下CPU cache, 它是操作系统设计的局部性原理的体现,利用CPU L1-cache(访问速度远高于内存,但是容量小)来保存近期CPU处理过的数据,CPU再次进行计算时,需要重新加载参与计算的数据,此时会先从L1-cache中查找,如果找到了就不去内存中找了。这样的一个优化在有大量局部性特性的数据处理过程中会极大得提升处理效率。

      如下简单的代码

      #include <stdio.h>
      #include <unistd.h>int a[10000][10000];int main(int argc, char **argv)
      {int i,j;printf("%d \n",argc);if(argc == 1){for(i = 0; i < 10000; ++i){for(j = 0; j < 10000; ++j){a[i][j] = 0;}}}else{for(i = 0; i < 10000; ++i){for(j = 0; j < 10000; ++j){a[j][i] = 0;}}}return 0;
      }
      

      这里两种相同功能,但不同赋值顺序的循环,CPU处理性能差异还是比较大的。
      第二个循环性能会比较差,因为第二个循环的j 数据每次都会变化,j控制的是行的访问,每次赋值都需要重新加载一整行的数据到CPU cache之中,所以这样的循环下CPU cache的局部性优化就不怎么明显了,而且存在大量的cache-misses

      性能差异:
      可以看到在相同环境下见到操作一亿条数据时的执行效率有两倍的差异

      通过perf 验证如下:
      对应的cpu cache-misses也有接近七倍的差异,在CPU cache这里的空间局部性非常差,性能自然就会差。相当于CPU 每次加载不到cpu-cache的时候就需要访存,自然带来更大的开销。
      那就会有人问,为什么不把cpu cache再增大一点呢,这样不就有更多的空间存放更多的数据来靠近CPU执行了。

      CPU的设计工艺上 就是核心芯片,无数的功能集中在数平方厘米的地盘(计算,存储,肯定是以计算为主),为了一增大一部分的存储的性能,而让计算变得更加拥挤,自然是得不偿失。

  • perf stat 实时进行events的采样
    以上案例展示了通过perf stat来 抓取具体的事件执行情况,我们也可以抓取具体进程的某个事件指标
    perf stat -e $events -p $pid sleep $time 抓取一段时时间内指定进程的指定events情况。
    这里的time单位是s
    详细的events还包括具体内核模块的函数,可以通过perf list tracepoint查看

  • perf record 对给定的evets采样一段时间,做一个数据记录
    perf record -e $events -p $pid -o $output_filename sleep $time
    如果没有指定-o 参数,采样完成后会生成一个perf.data文件,否则会将针对events的采样数据存放在当前目录下自己指定的文件之中

  • perf reportrecord记录的数据生成可读性的报告
    perf report -i $input_file 通过 -i 参数指定自己record生成的数据文件,如果不用-i参数,则默认会加载 perf.data数据
    接下来看到的report中的数据就类似perf top中的每个函数的消耗占用情况

Ftrace 工具

ftrace 工具通过扩展支持了各种事件的跟踪功能,来以普通文件的形式,向用户提供抓取内核系统调用的接口。
主要是通过类似于procfsdebugfs进行文件访问 。
这样 不需要额外的工具,只需要挂载/sys/kernel/debug/tracing目录,对内部的文件进行读写,来跟ftrace进行交互。

  • 一般交互是需要进入/sys/kernel/debug/tracing目录,所以第一步 root用户 执行cd /sys/kernel/debug/tracing
  • 如果该目录不存在,则用进行挂载 mount -t debugfs nodev /sys/kernel/debug
  • 设置追踪函数 echo SyS_write > set_graph_function
    通过cat available_filter_functions 能够看到当前可以追踪的内核函数,有大量的不同模块的内核函数以及系统调用
    通过cat available_events 可以看到支持追踪的事件,这个事件是内核源码中事先定义好的追踪点
  • 配置追踪选项,echo function_graph > current_tracer
    其中查看支持的追踪器可以通过cat available_tracers

    # cat available_tracers
    hwlat blk function_graph wakeup_dl wakeup_rt wakeup function nop
    

    这其中,function 表示跟踪函数的执行,function_graph 则是跟踪函数的调用关系,也就是生 成直观的调用关系图,这便是最常用的两种跟踪器。

  • 配置追踪进程选项,echo funcgraph-proc > trace_options
  • 开启追踪
    echo 1 > tracing_on
  • 关闭追踪
    echo 0 > tracing_on
  • 查看追踪结果 cat trace
    可以看到SyS_write 整体执行到底层的调用链,甚至将每一个函数的耗时都展示出来了

    以上的输出含义如下:

    • 第一列表示运行的 CPU
    • 第二列是任务名称和进程 PID或者主线程ID
    • 第三列是函数执行延迟,单位是 us
    • 最后一列,则是函数调用关系图。

可以看到以上执行的整个过程还是比较复杂的,需要操作很多的文件,所以这里ftrace开发者提供了trace-cmd工具进行追踪步骤的简化。

通过yum install trace-cmd -y即可安装。
使用方式:

#追踪系统所有执行`SyS_write`  系统调用的进程
trace-cmd record -p function_graph -g SyS_write -O funcgraph-proc
trace-cmd start # 开启追踪
trace-cmd stop # 结束追踪
trace-cmd reset # 重置所有配置信息

其他详细的使用可以参考trace-cmd -h

这里有一个性能文件需要提前说明一下,因为ftrace 追踪的是内核的函数,采样的频率很高,实际的内核函数的执行耗时大概只有ftrace抓取的十分之一,不过并不影响我们来确认具体的执行逻辑和耗时比对(相同环境下)。

通过如上的内部工具 + 外部工具基本能够观察到整个rocksdb 引擎层的耗时情况,这个时候即使不能甩锅,也能轻松定位到具体耗时的函数,来让我们的问题分析排查过程更加精确简单。

关于 Rocksdb 性能分析 需要知道的一些“小技巧“ -- perf_context的“内功” ,systemtap、perf、 ftrace的颜值相关推荐

  1. linux 汇编 perf,性能分析利器之perf浅析

    作为服务器后台开发,不仅仅要写业务逻辑,后台意味着高并发,稳定性,当你写了很多逻辑,发现性能有问题的时候,也要学会性能分析,进行性能优化, 也许你会接触很多性能分析工具:valgrind,gperft ...

  2. 【Python】这10个Python性能调优的小技巧,你知道几个?

    这篇文章关于Python性能调优的10个小技巧,每天花5-10分钟阅读我的文章,对你技术提升一定会有帮助. 1 多多使用列表生成式 替换下面代码: cube_numbers = []for n in ...

  3. Go 学习笔记(81)— Go 性能分析工具 pprof

    Go 语言工具链中的 go pprof 可以帮助开发者快速分析及定位各种性能问题,如 CPU消耗 .内存分配及阻塞分析 .具体作用如下: 性能分析首先需要使用 runtime.pprof 包嵌入到待分 ...

  4. App性能分析数据监控

    App性能分析数据监控 APP的性能监控包括: CPU 占用率.内存使用情况.网络状况监控.启动时闪退.卡顿.FPS.使用时崩溃.耗电量监控.流量监控等等. 文中所有代码都已同步到github中,有兴 ...

  5. Tesla T4视频编码性能分析

    Tesla T4视频编码性能分析 从开普勒开始的所有 NVIDIA GPUs 都支持完全加速的硬件视频编码: GPUs 支持完全加速的硬件视频解码.最近发布的图灵硬件提供了张量核心和更好的机器学习性能 ...

  6. Yolov4性能分析(下)

    Yolov4性能分析(下) 六. 权重更新 "darknet/src/detector.c"–train_detector()函数中: ....../* 开始训练网络 */floa ...

  7. Yolov4性能分析(上)

    Yolov4性能分析(上) 一.目录 实验测试 1) 测试介绍 2) Test 3) Train 二.分析 1.实验测试 1 实验测试方法 Yolov4训练train实验方法(Darknet shou ...

  8. Linux性能分析命令工具汇总

    转自:http://rdc.hundsun.com/portal/article/731.html?ref=myread 出于对Linux操作系统的兴趣,以及对底层知识的强烈欲望,因此整理了这篇文章. ...

  9. MySQL常用性能分析方法-profile,explain,索引

    1.查版本号 无论做什么都要确认版本号,不同的版本号下会有各种差异. >Select  version(); 2.执行状态分析 显示哪些线程正在运行 >show processlist; ...

最新文章

  1. ACdream 1099——瑶瑶的第K大——————【快排舍半,输入外挂】
  2. 二叉树中第二小的节点
  3. Centos更换阿里云源
  4. Leetcode 912.排序算法(快排)
  5. 看动画学算法之:doublyLinkedList
  6. 全面认识Docker和基本指令
  7. telnet到设备里 php_PHP自动生成设备周检修计划
  8. 含枚举类型的函数声明_02Golang基础类型
  9. promise封装读取文件
  10. linux下安装opencv4.4.0
  11. r 选取从小到大的数据_玩点特别的!AI打造可编辑数据图表!
  12. CICD之maven介绍
  13. python爬虫案例——根据网址爬取中文网站,获取标题、子连接、子连接数目、连接描述、中文分词列表
  14. java.sql.SQLException: Access denied for user 'Administrator'@'localhost' (using password: YES)
  15. whoosh读取+html,django-haystack+jieba+whoosh实现全文检索
  16. codejock 用法记录
  17. 阿里云服务大规模故障:运维操作失误
  18. 抖音小店无货源玩法分享(五)抖店类目该如何选择
  19. 7-1 约瑟夫环问题-hebust (10 分)
  20. OPENCV 寻找图形最大内接矩形

热门文章

  1. Usage and Idioms——Categories
  2. Linux服务器搭建常用环境(一)
  3. imagick API 中文说明
  4. Retrofit源码研究
  5. Windows图标:有一些你未必知道的东西
  6. Ext结合DWR的关键代码(运行成功的DWRProxy)
  7. 4g运行内存手机还能用多久_看完就明白:目前手机运行内存超过4G就是浪费
  8. python删除字典中性别为男_python初学者,用python3实现基本的学生管理系统代码实例...
  9. 实验报告Linux操作系统基本命令,linux操作系统实验报告全部.doc
  10. java部署工具下载_Walle部署工具-Walle(开源部署工具)下载 v2.0.1官方版--pc6下载站...