Skip to content
GitLab
Menu
Projects
Groups
Snippets
Loading...
Help
Help
Support
Community forum
Keyboard shortcuts
?
Submit feedback
Contribute to GitLab
Sign in / Register
Toggle navigation
Menu
Open sidebar
wangsen
mlcommon_inference
Commits
227f16ef
Commit
227f16ef
authored
Jan 09, 2026
by
root
Browse files
update resnet50
parent
8e1a3267
Changes
1
Show whitespace changes
Inline
Side-by-side
Showing
1 changed file
with
29 additions
and
11 deletions
+29
-11
README_resnet50.md
README_resnet50.md
+29
-11
No files found.
README_resnet50.md
View file @
227f16ef
...
...
@@ -91,28 +91,46 @@ mlcr run-mlperf,inference,_full,_r5.1 --model=resnet50 --implementation=referenc
## 4. 执行推理测试
进入视觉任务目录,使用本地脚本启动基于 GPU (DCU) 的推理:
你可以通过以下两种方式之一来运行,确保脚本能找到文件:
**方式 A:先 Export(推荐,不容易出错)**
```
bash
cd
vision/classification_and_detection
export
MODEL_DIR
=
/workspace/inference/vision/classification_and_detection/models/
export
DATA_DIR
=
/workspace/inference/vision/classification_and_detection/data
./run_local.sh tf resnet50 gpu
```
## 5. 结果分析
**方式 B:在命令行前直接定义**
```
bash
MODEL_DIR
==
/path/to/model.pb
DATA_DIR
=
/path/to/data ./run_local.sh tf resnet50 gpu
```
---
### 四个场景要求的命令汇总
测试完成后,系统会在
`output`
目录下生成日志文件。
不同场景的正确命令如下:
|
指
标 |
含义
|
|
测试目
标 |
命令(前提是已 export 变量)
|
| --- | --- |
|
**QPS**
| 每秒处理的图片数量,数值越高越好。 |
|
**Mean Latency**
| 平均延迟,数值越低越好。 |
|
**99th Percentile**
| 99% 的请求都在此延迟内完成,反映系统稳定性。 |
|
**最大吞吐量**
|
`./run_local.sh tf resnet50 gpu --scenario Offline`
|
|
**最低延迟**
|
`./run_local.sh tf resnet50 gpu --scenario SingleStream`
|
|
**最大并发流**
|
`./run_local.sh tf resnet50 gpu --scenario MultiStream`
|
|
**P99 20ms 吞吐量**
|
`./run_local.sh tf resnet50 gpu --scenario Server --user_conf user.conf`
|
---
### 注意事项
*
**路径配置**
:如果
`run_local.sh`
提示找不到模型或数据集,请检查
`/workspace/inference/vision/classification_and_detection/python/main.py`
中的默认路径参数是否与您的下载路径一致。
*
**DCU 监控**
:在测试执行期间,可以开启另一个终端使用
`rocm-smi`
命令监控显存使用和计算核心占用。
## 5. 如何验证四个场景的“合格性”?
检查
`output/`
目录下生成的
`mlperf_log_summary.txt`
:
*
**Offline**
: 寻找
`Samples per second`
。
*
**SingleStream**
: 寻找
`Mean latency`
。
*
**MultiStream**
: 寻找
`Samples per query`
。
*
**Server**
: 确保
`Result is : VALID`
,这代表你的 P99 延迟满足了 20ms(前提是你已按前文建议在
`user.conf`
中设置了
`target_latency = 20`
)。
Write
Preview
Markdown
is supported
0%
Try again
or
attach a new file
.
Attach a file
Cancel
You are about to add
0
people
to the discussion. Proceed with caution.
Finish editing this message first!
Cancel
Please
register
or
sign in
to comment