Commit bd20efa5 authored by liuhy's avatar liuhy
Browse files

Update README.md

parent e4ade797
...@@ -93,17 +93,17 @@ LPR模型用test.py对训练出的模型进行测试,使用方法如下: ...@@ -93,17 +93,17 @@ LPR模型用test.py对训练出的模型进行测试,使用方法如下:
--export_onnx True/False(该参数用于选择是否需要将pth模型转为onnx模型) \ --export_onnx True/False(该参数用于选择是否需要将pth模型转为onnx模型) \
--dynamic True/False(该参数用于选择onnx模型是否使用动态的batch size) --dynamic True/False(该参数用于选择onnx模型是否使用动态的batch size)
### 推理 ## 推理
我们分别提供了基于ONNXruntime(ORT)和Migraphx的推理脚本,版本依赖: 我们分别提供了基于ONNXruntime(ORT)和Migraphx的推理脚本,版本依赖:
* ONNXRuntime(DCU版本) >= 1.14.0 * ONNXRuntime(DCU版本) >= 1.14.0
* Migraphx(DCU版本) >= 2.5.0 * Migraphx(DCU版本) >= 2.5.0
#### ORT ### ORT
LPRNet_ORT_infer.py是基于ORT的的推理脚本,使用方法: LPRNet_ORT_infer.py是基于ORT的的推理脚本,使用方法:
python LPRNet_ORT_infer.py \ python LPRNet_ORT_infer.py \
--model onnx模型路径 \ --model onnx模型路径 \
--imgpath 数据路径(文件夹或图像皆可) --imgpath 数据路径(文件夹或图像皆可)
#### Migraphx ### Migraphx
LPRNet_migraphx_infer.py是基于Migraphx的推理脚本,使用需安装好Migraphx,支持onnx模型和mxr模型推理,mxr模型是migraphx将onnx模型保存成的离线推理引擎,初次使用onnx模型会保存对应的mxr模型。使用方法: LPRNet_migraphx_infer.py是基于Migraphx的推理脚本,使用需安装好Migraphx,支持onnx模型和mxr模型推理,mxr模型是migraphx将onnx模型保存成的离线推理引擎,初次使用onnx模型会保存对应的mxr模型。使用方法:
python LPRNet_migraphx_infer.py \ python LPRNet_migraphx_infer.py \
......
Markdown is supported
0% or .
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment