python asr_inference_onnx.py \ --onnx_exp /home/sunzhq/workspace/yidong-infer/conformer/onnx_models/transformer_lm \ --test_sets "test" \ --data_dir /data/datasets/0/data_aishell/wav \ # --batch_size 4 # --tag_name transformer_lm # # 使用量化模型 # python asr_inference_onnx.py --onnx_exp exp/conformer_onnx --use_quantized --batch_size 4 # # 使用GPU加速 # python asr_inference_onnx.py --onnx_exp exp/conformer_onnx --device gpu --inference_nj 8 # - --onnx_exp : ONNX实验目录(必需) # - --data_dir : 数据目录(默认:./data) # - --test_sets : 测试集名称(默认:test) # - --batch_size : 批量大小(默认:1) # - --device : 推理设备(cpu/gpu,默认:cpu) # - --inference_nj : 并行任务数(默认:4) # - --use_quantized : 使用量化模型