# YoloV7 ## 模型介绍 YOLOV7是2022年最新出现的一种YOLO系列目标检测模型,在论文 [YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors](https://arxiv.org/abs/2207.02696)中提出。 ## 模型结构 YoloV7模型的网络结构包括三个部分:input、backbone和head。与yolov5不同的是,将neck层与head层合称为head层,实际上的功能的一样的。对各个部分的功能和yolov5相同,如backbone用于提取特征,head用于预测。 ## 推理 ### 环境配置 在[光源](https://www.sourcefind.cn/#/image/dcu/custom)可拉取用于推理的docker镜像,YoloV7模型推理推荐的镜像如下: ``` docker pull image.sourcefind.cn:5000/dcu/admin/base/custom:ort_dcu_1.14.0_migraphx2.5.2_dtk22.10.1 ``` 在[光合开发者社区](https://cancon.hpccube.com:65024/4/main/)可下载MIGraphX安装包,python依赖安装: ``` pip install -r requirements.txt ``` ### 运行示例 YoloV7模型的推理示例程序是YoloV7_infer_migraphx.py,使用如下命令运行该推理示例: ``` python YoloV7_infer_migraphx.py \ --imgpath 测试图像路径 \ --modelpath onnx模型路径 \ --objectThreshold 判断是否有物体阈值,默认0.5 \ --confThreshold 置信度阈值,默认0.25 \ --nmsThreshold nms阈值,默认0.5 \ ``` 程序运行结束会在当前目录生成YoloV5检测结果图像。 Result ## 历史版本 ​ https://developer.hpccube.com/codes/modelzoo/yolov5_migraphx ## 参考 ​ https://github.com/ultralytics/yolov5