gem5-gpu 运行 PARSEC2.1
PARSEC是针对共享内存多核处理器(CPU)的一套基准测试程序,详细介绍见wiki:http://wiki.cs.princeton.edu/index.php/PARSEC,主要参考:http://www.cs.utexas.edu/~cart/parsec_m5/,下载parsec、inputs:http://parsec.cs.princeton.edu/download.htm
阅读此教程的前提是,你已经配置好全系统模拟环境。
首先,下载所需的PARSEC应用程序,这一步已经在配置全系统时完成,即磁盘镜像中根目录下的parsec文件夹。要想重新编译请看http://www.cs.utexas.edu/~cart/parsec_m5/,在http://parsec.cs.princeton.edu/download.htm下载的源文件是否需要对gem5-gpu做针对性的更改:未知,需要实验来给出结果。
其次,下载一个rcS生成器:http://www.cs.utexas.edu/~parsec_m5/writescripts.pl,这是一个Perl脚本,很多Linux发行版默认安装了Perl,只需赋予用户该文件的可执行权限即可,源文件的最后注明了用法。PARSEC wiki页面最后也有个别程序的用法。
可以看到生成了5个rcS脚本,命名格式为“benchName_threadsNumberc_input",其中input的含义:
test:尽可能小的输入,dev:我没看懂,small:真实输入,运行时间约1s,medium:真实输入,运行时间约5s,large:真实输入,运行时间约15s,native:真实输入,运行时间约15min。
rcS文件内容可供参考,参考其命令格式,可以通过运行 ./bench --help-all 查看程序的其他用法。
付用法,具体含义见源文件main.cpp
blackscholes;<nthreads> <inputdir>in_4.txt <inputdir>prices.txt;<nthreads> <inputdir>in_16.txt <inputdir>prices.txt;<nthreads> <inputdir>in_4K.txt <inputdir>prices.txt;<nthreads> <inputdir>in_16K.txt <inputdir>prices.txt;<nthreads> <inputdir>in_64K.txt <inputdir>prices.txt bodytrack;<inputdir>sequenceB_1 4 1 5 1 0 <nthreads>;<inputdir>sequenceB_1 4 1 100 3 0 <nthreads>;<inputdir>sequenceB_1 4 1 1000 5 0 <nthreads>;<inputdir>sequenceB_2 4 2 2000 5 0 <nthreads>;<inputdir>sequenceB_4 4 4 4000 5 0 <nthreads> canneal;<nthreads> 5 100 <inputdir>10.nets 1;<nthreads> 100 300 <inputdir>100.nets 2;<nthreads> 10000 2000 <inputdir>100000.nets 32;<nthreads> 15000 2000 <inputdir>200000.nets 64;<nthreads> 15000 2000 <inputdir>400000.nets 128 dedup;-c -p -f -t <nthreads> -i <inputdir>test.dat -o <inputdir>output.dat.ddp;-c -p -f -t <nthreads> -i <inputdir>hamlet.dat -o <inputdir>output.dat.ddp;-c -p -f -t <nthreads> -i <inputdir>medias.dat -o <inputdir>output.dat.ddp;-c -p -f -t <nthreads> -i <inputdir>mediam.dat -o <inputdir>output.dat.ddp;-c -p -f -t <nthreads> -i <inputdir>medial.dat -o <inputdir>output.dat.ddp facesim;-h;-timing -threads <nthreads>;-timing -threads <nthreads>;-timing -threads <nthreads>;-timing -threads <nthreads> ferret;<inputdir>corelt lsh <inputdir>queriest 1 1 <nthreads> <inputdir>output.txt;<inputdir>coreld lsh <inputdir>queriesd 5 5 <nthreads> <inputdir>output.txt;<inputdir>corels lsh <inputdir>queriess 10 20 <nthreads> <inputdir>output.txt;<inputdir>corelm lsh <inputdir>queriesm 10 20 <nthreads> <inputdir>output.txt;<inputdir>corell lsh <inputdir>queriesl 10 20 <nthreads> <inputdir>output.txt fluidanimate;<nthreads> 1 <inputdir>in_5K.fluid <inputdir>out.fluid;<nthreads> 3 <inputdir>in_15K.fluid <inputdir>out.fluid;<nthreads> 5 <inputdir>in_35K.fluid <inputdir>out.fluid;<nthreads> 5 <inputdir>in_100K.fluid <inputdir>out.fluid;<nthreads> 5 <inputdir>in_300K.fluid <inputdir>out.fluid freqmine;<inputdir>T10I4D100K_3.dat 1;<inputdir>T10I4D100K_1k.dat 3;<inputdir>kosarak_250k.dat 220;<inputdir>kosarak_500k.dat 410;<inputdir>kosarak_990k.dat 790 rtview;<inputdir>octahedron.obj -nodisplay -automove -nthreads <nthreads> -frames 1 -res 1 1;<inputdir>bunny.obj -nodisplay -automove -nthreads <nthreads> -frames 1 -res 16 16;<inputdir>happy_buddha.obj -nodisplay -automove -nthreads <nthreads> -frames 3 -res 480 270;<inputdir>happy_buddha.obj -nodisplay -automove -nthreads <nthreads> -frames 3 -res 960 540;<inputdir>happy_buddha.obj -nodisplay -automove -nthreads <nthreads> -frames 3 -res 1920 1080 streamcluster;2 5 1 10 10 5 none <inputdir>output.txt <nthreads>;3 10 3 16 16 10 none <inputdir>output.txt <nthreads>;10 20 32 4096 4096 1000 none <inputdir>output.txt <nthreads>;10 20 64 8192 8192 1000 none <inputdir>output.txt <nthreads>;10 20 128 16384 16384 1000 none <inputdir>output.txt <nthreads> swaptions;-ns 1 -sm 5 -nt <nthreads>;-ns 3 -sm 50 -nt <nthreads>;-ns 16 -sm 5000 -nt <nthreads>;-ns 32 -sm 10000 -nt <nthreads>;-ns 64 -sm 20000 -nt <nthreads> vips;im_benchmark <inputdir>barbados_256x288.v <inputdir>output.v;im_benchmark <inputdir>barbados_256x288.v <inputdir>output.v;im_benchmark <inputdir>pomegranate_1600x1200.v <inputdir>output.v;im_benchmark <inputdir>vulture_2336x2336.v <inputdir>output.v;im_benchmark <inputdir>bigben_2662x5500.v <inputdir>output.v x264;--quiet --qp 20 --partitions b8x8,i4x4 --ref 5 --direct auto --b-pyramid --weightb --mixed-refs --no-fast-pskip --me umh --subme 7 --analyse b8x8,i4x4 --threads <nthreads> -o <inputdir>eledream.264 <inputdir>eledream_32x18_1.y4m;--quiet --qp 20 --partitions b8x8,i4x4 --ref 5 --direct auto --b-pyramid --weightb --mixed-refs --no-fast-pskip --me umh --subme 7 --analyse b8x8,i4x4 --threads <nthreads> -o <inputdir>eledream.264 <inputdir>eledream_64x36_3.y4m;--quiet --qp 20 --partitions b8x8,i4x4 --ref 5 --direct auto --b-pyramid --weightb --mixed-refs --no-fast-pskip --me umh --subme 7 --analyse b8x8,i4x4 --threads <nthreads> -o <inputdir>eledream.264 <inputdir>eledream_640x360_8.y4m;--quiet --qp 20 --partitions b8x8,i4x4 --ref 5 --direct auto --b-pyramid --weightb --mixed-refs --no-fast-pskip --me umh --subme 7 --analyse b8x8,i4x4 --threads <nthreads> -o <inputdir>eledream.264 <inputdir>eledream_640x360_32.y4m;--quiet --qp 20 --partitions b8x8,i4x4 --ref 5 --direct auto --b-pyramid --weightb --mixed-refs --no-fast-pskip --me umh --subme 7 --analyse b8x8,i4x4 --threads <nthreads> -o <inputdir>eledream.264 <inputdir>eledream_640x360_128.y4m
Benchmark | input | cpu_threads | start_from | sim_seconds | ROI time | cpu_threads | start_from | sim_seconds | ROI time |
blackscholes | small | 1 | 0.4799s | 0.480s | 2 | 0.24s | |||
bodytrack | 1.4s | 1.4s | |||||||
canneal | 0.774s | 0.772s | |||||||
dedup | 2.913s | 2.912s | |||||||
facesim | |||||||||
ferret | |||||||||
fluidanimate | 2.597s | 2.6s | |||||||
freqmine | 1.536s | 1.54s | |||||||
rtview | |||||||||
streamcluster | 2.532s | 2.532s | |||||||
swaption | |||||||||
vips | |||||||||
x264 | 0.4699s | 0.468s |
转载于:https://www.cnblogs.com/chenhuanBlogs/p/8615548.html
gem5-gpu 运行 PARSEC2.1相关推荐
- GPU运行Tensorflow详细教程及错误解决
GPU运行Tensorflow详细教程及错误解决 前提条件 配置GPU运行 确认是否成功配置 出现的错误及解决方案 前提条件 最重要的一点:CUDA与tensorflow的版本一点要对应,不然用不了! ...
- 成功解决:Win系统下的Tensorflow使用CPU而不使用GPU运行加速
成功解决:Win系统下的Tensorflow使用CPU而不使用GPU运行加速 目录 解决问题 解决思路 解决方法 解决问题 Win系统下的Tensorflow使用CPU而不使用GPU运行加速 解决思路 ...
- 多GPU运行Deep Learning 和 并行Deep Learning(待续)
本文论述了 Deep learning运行所需的硬件配置,多GPU运行Deep Learning,设置Deep Learning的数据并行和 模型并行.详情请参考下文 http://timdettme ...
- 使用Google colab的GPU运行resnet
使用Google colab的GPU运行resnet 由于我的电脑显卡是AMD,跑代码每一个epoch都要超级超级久,偶然间听到了Google colab,于是用起来了,感觉非常爽 Colaborat ...
- Macbook Pro 外接显卡实现Tensorflow GPU运行之内屏输出
Macbook Pro 外接显卡实现Tensorflow GPU运行–内屏输出 MacOS 重装 外接显卡(内屏输出)
- gpu运行pycharm
如何使用自己电脑上自带的GPU来运行pycharm中的程序 准备工作:在代码中指定gpu来运行 第一步:cuda的安装 第二步:mxnet的安装 第三步:可能的numpy问题 附1:如何回到CPU模式 ...
- Android 读取CPU/GPU运行参数(MTK平台)
一.使用场景 Android运行一段世时间后,系统出现卡顿 二.分析&定位问题 系统卡顿,同时又发现芯片温度很高,怀疑是温度过高导致CPU降频,因此我们要将一段时间内CPU的运行信息打印出来. ...
- Macbook Pro 外接显卡实现Tensorflow GPU运行之环境配置(重点)
Macbook Pro 外接显卡实现Tensorflow GPU运行–环境配置 MacOS 重装 外接显卡(内屏输出) 环境配置(重点)
- Macbook Pro 外接显卡实现Tensorflow GPU运行之MacOS系统重装
Macbook Pro 外接显卡实现Tensorflow GPU运行-MacOS重装 MacOS 重装
- 记录maskrcnn训练:训练集制备、tensorflow+keras包安装、gpu运行推荐组合、soft-nms使用
2021/8/23 写在前面 若你的应用场景里,对象分布比较稀疏,即不易出现相互重叠率高/拥挤的情况,那么请跳过这里,直接从分割线后看,按本篇 tf1.0.5+keras2.1.6 配置即可 ( •̀ ...
最新文章
- sql server 2005 T-SQL @@TOTAL_READ (Transact-SQL)
- AtcoderCodeForces杂题11.6
- centos安装cowboy过程
- Unity3D安卓程序中常用静态方法封装
- 华三服务器怎么设置系统启动模式,H3C 开局设置
- 关于字符串 --java
- feign调用多个服务_Spring Cloud 快速入门系列之feign–微服务之间的调用
- 笔记本电脑如何保养_嘉兴专业笔记本电脑喷漆加工厂价格实惠
- Linux文件IO(文件的读写)
- 【Spring】Unable to start ServletWebServerApplicationContext due to miss ServletWebServerFactory bean
- 收藏!50个帮你自我提升的网站
- 可以运行python的路由器_用python管理Cisco路由器
- 【Django 2021年最新版教程25】模板语言 前端for循环怎么用 实例
- python从外部传入参数_Python学习杂记_8_从程序外部传参的办法sys.argv
- 前端企业级代码规范(巨详细)
- Spring AOP报错Set ‘exposeProxy‘ property on Advised to ‘true‘ to make it available问题
- 服务器指的是系统,服务器操作系统指的是什么
- Python英文单词大小写转换及所有首字母大写
- suse linux 11 xdm图形化,suse xdm 设置
- jdk-8u181-windows-x64(JDK1.8)安装包