# YOLOv13 YOLOv13引入超图理论,其中YOLOv13-N相比YOLO11-N提升了3.0%的mAP,相比YOLOv12-N提升了1.5%的mAP。 ## 论文 `YOLOv13: Real-Time Object Detection with Hypergraph-Enhanced Adaptive Visual Perception` - https://arxiv.org/pdf/2506.17733 ## 模型结构 遵循“骨干网络→颈部网络→检测头”的计算范式,通过超图自适应关联增强(HyperACE)机制,实现全链路特征聚合与分配(FullPAD),从而增强传统的YOLO架构。
## 算法原理 YOLOv13将图片数据送入模型后,沿用yolo系列的通用方法,依次通过backbone、neck提取特征,最后经过head预测出检测框,其中YOLOv13最大的改进是引入超图的自适应关联增强机制HyperACE,将多尺度特征图的像素视为超图顶点,HyperACE 设计了可学习的超边生成模块,自适应地学习并构建超边,动态探索不同特征顶点间的潜在关联。
## 环境配置 ``` mv yolov13_pytorch yolov13 ``` ### 硬件需求 DCU型号:K100AI,节点数量:1 台,卡数:4 张。 ### Docker(方法一) ``` docker pull image.sourcefind.cn:5000/dcu/admin/base/pytorch:2.4.1-ubuntu22.04-dtk25.04.1-py3.10 # 为以上拉取的docker的镜像ID替换,本镜像为:e50d644287fd docker run -it --shm-size=64G -v $PWD/yolov13:/home/yolov13 -v /opt/hyhal:/opt/hyhal:ro --privileged=true --device=/dev/kfd --device=/dev/dri/ --group-add video --name yolov13 bash cd /home/yolov13 pip install -r requirements.txt # requirements.txt pip install -e . # ultralytics==8.3.63 ``` ### Dockerfile(方法二) ``` cd /home/yolov13/docker docker build --no-cache -t yolov13:latest . docker run --shm-size=64G --name yolov13 -v /opt/hyhal:/opt/hyhal:ro --privileged=true --device=/dev/kfd --device=/dev/dri/ --group-add video -v $PWD/../../yolov13:/home/yolov13 -it yolov13 bash # 若遇到Dockerfile启动的方式安装环境需要长时间等待,可注释掉里面的pip安装,启动容器后再安装python库:pip install -r requirements.txt。 pip install -e . # ultralytics==8.3.63 ``` ### Anaconda(方法三) 1、关于本项目DCU显卡所需的特殊深度学习库可从光合开发者社区下载安装: - https://developer.sourcefind.cn/tool/ ``` DTK驱动:25.04.1 python:python3.10 torch:2.4.1 torchvision:0.19.1 triton:3.0.0 flash-attn:2.6.1 deepspeed:0.14.2 apex:1.4.0 onnxruntime:1.19.2 ``` `Tips:以上dtk驱动、python、torch等DCU相关工具版本需要严格一一对应。` 2、其它非特殊库参照requirements.txt安装 ``` cd /home/yolov13 pip install -r requirements.txt # requirements.txt pip install -e . # ultralytics==8.3.63 ``` ## 数据集 [COCO2017](https://modelscope.cn/datasets/PAI/COCO2017)、[coco2017labels-segments](https://github.com/ultralytics/assets/releases/download/v0.0.0/coco2017labels-segments.zip)。 数据集的构造方式: ``` # 1、创建datasets文件 mkdir /home/datasets # 2、将coco2017labels-segments.zip放到/home/datasets/下面解压,生成数据集主体目录结构。 unzip coco2017labels-segments.zip # 3、解压COCO2017中的train2017.zip和val2017.zip,并替换/home/datasets/coco/images/下相应的train2017和val2017即可。 ``` 完整的数据集目录结构如下: ``` /home/datasets/coco/ ├── train2017.txt ├── val2017.txt ├── test-dev2017.txt ├── annotations/instances_val2017.json ├── images ├── train2017 ├── xxx.jpg ... └── val2017 ├── xxx.jpg ... └── labels ├── train2017 ├── xxx.txt ... └── val2017 ├── xxx.txt ... ... ``` 更多资料可参考源项目的[`README_origin`](./README_origin.md) ## 训练 运行训练命令时若未自动下载字体文件,使用以下命令放置即可: ``` cp Arial.ttf /root/.config/yolov13/Arial.ttf ``` ### 单机多卡 ``` export HIP_VISIBLE_DEVICES=0,1,2,3 cd /home/yolov13 python train.py # 此处以yolov13n为例,其它参数量的模型以此类推。 ``` ## 推理 ### 单机多卡 ``` export HIP_VISIBLE_DEVICES=0,1,2,3 cd /home/yolov13 python prediction.py # 此处以yolov13n为例,其它参数量的模型以此类推。 ``` 更多资料可参考源项目的[`README_origin`](./README_origin.md) ## result `输入: ` ``` /home/yolov13/ultralytics/assets/bus.jpg /home/yolov13/ultralytics/assets/zidane.jpg ``` `输出:` ``` image 1/2 /home/yolov13/ultralytics/assets/bus.jpg: 640x480 5 persons, 1 bus image 2/2 /home/yolov13/ultralytics/assets/zidane.jpg: 384x640 2 persons, 1 tie ``` ### 精度 测试数据:`/home/datasets/coco/images/val2017`,测试权重为训练结束的`/home/yolov13/runs/detect/train/weights/best.pt`,使用的加速卡:K100AI,max epoch为600,推理框架:pytorch。 | device | mAP50 | mAP75 | mAP50-95 | | :------: | :------: | :------: | :------: | | DCU K100AI | 0.567 | 0.445 | 0.411 | | GPU A800 | 0.564 | 0.441 | 0.41 | ## 应用场景 ### 算法类别 `目标检测` ### 热点应用行业 `制造,电商,医疗,能源,教育` ## 预训练权重 `weights/yolov13n.pt` ## 源码仓库及问题反馈 - http://developer.sourcefind.cn/codes/modelzoo/yolov13_pytorch.git ## 参考资料 - https://github.com/iMoonLab/yolov13.git