Commit 227f16ef authored by root's avatar root
Browse files

update resnet50

parent 8e1a3267
......@@ -91,28 +91,46 @@ mlcr run-mlperf,inference,_full,_r5.1 --model=resnet50 --implementation=referenc
## 4. 执行推理测试
进入视觉任务目录,使用本地脚本启动基于 GPU (DCU) 的推理:
你可以通过以下两种方式之一来运行,确保脚本能找到文件:
**方式 A:先 Export(推荐,不容易出错)**
```bash
cd vision/classification_and_detection
export MODEL_DIR=/workspace/inference/vision/classification_and_detection/models/
export DATA_DIR=/workspace/inference/vision/classification_and_detection/data
./run_local.sh tf resnet50 gpu
```
## 5. 结果分析
**方式 B:在命令行前直接定义**
```bash
MODEL_DIR==/path/to/model.pb DATA_DIR=/path/to/data ./run_local.sh tf resnet50 gpu
```
---
### 四个场景要求的命令汇总
测试完成后,系统会在 `output` 目录下生成日志文件。
不同场景的正确命令如下:
| 标 | 含义 |
| 测试目标 | 命令(前提是已 export 变量) |
| --- | --- |
| **QPS** | 每秒处理的图片数量,数值越高越好。 |
| **Mean Latency** | 平均延迟,数值越低越好。 |
| **99th Percentile** | 99% 的请求都在此延迟内完成,反映系统稳定性。 |
| **最大吞吐量** | `./run_local.sh tf resnet50 gpu --scenario Offline` |
| **最低延迟** | `./run_local.sh tf resnet50 gpu --scenario SingleStream` |
| **最大并发流** | `./run_local.sh tf resnet50 gpu --scenario MultiStream` |
| **P99 20ms 吞吐量** | `./run_local.sh tf resnet50 gpu --scenario Server --user_conf user.conf` |
---
### 注意事项
* **路径配置**:如果 `run_local.sh` 提示找不到模型或数据集,请检查 `/workspace/inference/vision/classification_and_detection/python/main.py` 中的默认路径参数是否与您的下载路径一致。
* **DCU 监控**:在测试执行期间,可以开启另一个终端使用 `rocm-smi` 命令监控显存使用和计算核心占用。
## 5. 如何验证四个场景的“合格性”?
检查 `output/` 目录下生成的 `mlperf_log_summary.txt`
* **Offline**: 寻找 `Samples per second`
* **SingleStream**: 寻找 `Mean latency`
* **MultiStream**: 寻找 `Samples per query`
* **Server**: 确保 `Result is : VALID`,这代表你的 P99 延迟满足了 20ms(前提是你已按前文建议在 `user.conf` 中设置了 `target_latency = 20`)。
Markdown is supported
0% or .
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment