"vscode:/vscode.git/clone" did not exist on "5567f4a4d91687ca6dd869ff01ab8615b4c1d65f"
README.md 7.35 KB
Newer Older
dcuai's avatar
dcuai committed
1
# YOLOv9
dongchy920's avatar
dongchy920 committed
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
## 论文
- https://arxiv.org/abs/2402.13616
## 模型结构
YOLOv9将可编程梯度信息 (PGI) 概念与通用 ELAN (GELAN)架构相结合而开发,代表了准确性、速度和效率方面的重大飞跃。

<div align=center>
    <img src="./doc/yolov9-model.png"/>
</div>

## 算法原理
Yolov9将可编程梯度信息(PGI)和GLEAN(用于对象检测的生成潜在嵌入)架构集成到YOLOv9中可以增强其在对象检测任务中的性能。可编程梯度信息(PGI)概念,有助于通过辅助可逆分支生成可靠的梯度。这确保深度特征保留执行目标任务所需的关键特征,解决深度神经网络前馈过程中信息丢失的问题。通用ELAN(GELAN)架构,旨在优化参数、计算复杂度、准确性和推理速度。通过允许用户为不同的推理设备选择合适的计算模块,GELAN 增强了 YOLOv9 的灵活性和效率。实验结果表明,YOLOv9 在 MS COCO 等基准数据集上的目标检测任务中实现了最佳性能。它在准确性、速度和整体性能方面超越了现有的实时物体检测器,使其成为需要物体检测功能的各种应用的最先进的解决方案。

<div align=center>
    <img src="./doc/pgi.png"/>
</div>
PGI主要包括主分支, 辅助可逆分支, 多级辅助信息三个组成部分。PGI推理过程仅使用主分支,因此不需要任何额外的推理成本。

<div align=center>
    <img src="./doc/gelan.png"/>
</div>

YOLOv9提出了新网络架构——GELAN。GELAN通过结合两种神经网络架构,即结合用梯度路径规划(CSPNet)和(ELAN)设计了一种广义的高效层聚合网络(GELAN);GELAN综合考虑了轻量级、推理速度和准确度。GELAN整体架构如上图所示。YOLOv9将ELAN的能力进行了泛化,原始ELAN仅使用卷积层的堆叠,而GELAN可以使用任何计算块作为基础Module。

## 环境配置
### Docker(方法一)
[光源](https://www.sourcefind.cn/#/service-list)中拉取docker镜像:
```
29
docker pull image.sourcefind.cn:5000/dcu/admin/base/pytorch:2.1.0-ubuntu20.04-dtk24.04.1-py3.10
dongchy920's avatar
dongchy920 committed
30
31
32
```
创建容器并挂载目录进行开发:
```
33
docker run -it --name {name} --shm-size=1024G  --device=/dev/kfd --device=/dev/dri/ --privileged --cap-add=SYS_PTRACE --security-opt seccomp=unconfined --ulimit memlock=-1:-1 --ipc=host --network host --group-add video -v /opt/hyhal:/opt/hyhal:ro -v {}:{} {docker_image} /bin/bash
dongchy920's avatar
dongchy920 committed
34
# 修改1 {name} 需要改为自定义名称,建议命名{框架_dtk版本_使用者姓名},如果有特殊用途可在命名框架前添加命名
35
# 修改2 {docker_image} 需要需要创建容器的对应镜像名称,如: pytorch:2.1.0-ubuntu20.04-dtk24.04.1-py3.10【镜像名称:tag名称】
dongchy920's avatar
dongchy920 committed
36
# 修改3 -v 挂载路径到容器指定路径
37
pip install -r requirements.txt
dongchy920's avatar
dongchy920 committed
38
39
40
```
### Dockerfile(方法二)
```
41
cd docker
dongchy920's avatar
dongchy920 committed
42
docker build --no-cache -t yolov9_pytorch:1.0 .
43
docker run -it --name {name} --shm-size=1024G  --device=/dev/kfd --device=/dev/dri/ --privileged --cap-add=SYS_PTRACE --security-opt seccomp=unconfined --ulimit memlock=-1:-1 --ipc=host --network host --group-add video -v /opt/hyhal:/opt/hyhal:ro -v {}:{} {docker_image} /bin/bash 
44
pip install -r requirements.txt
dongchy920's avatar
dongchy920 committed
45
46
47
```
### Anaconda(方法三)
线上节点推荐使用conda进行环境配置。
dongchy920's avatar
dongchy920 committed
48
创建python=3.10的conda环境并激活
dongchy920's avatar
dongchy920 committed
49
50
```
conda create -n yolov9 python=3.10
dongchy920's avatar
dongchy920 committed
51
conda activate yolov9
dongchy920's avatar
dongchy920 committed
52
53
```

chenzk's avatar
chenzk committed
54
关于本项目DCU显卡所需的特殊深度学习库可从[光合](https://developer.sourcefind.cn/tool/)开发者社区下载安装。
dongchy920's avatar
dongchy920 committed
55
```
56
DTK驱动:dtk24.04.1
dongchy920's avatar
dongchy920 committed
57
python:python3.10
58
59
pytorch:2.1.0
torchvision:0.16.0
dongchy920's avatar
dongchy920 committed
60
```
dongchy920's avatar
dongchy920 committed
61
安装其他依赖包
62
63
64
```
pip install -r requirements.txt
```
dongchy920's avatar
dongchy920 committed
65
66
## 数据集
`MS COCO`
chenzk's avatar
chenzk committed
67
68

- 训练集[train2017.zip](http://images.cocodataset.org/zips/train2017.zip),验证集[val2017.zip](http://images.cocodataset.org/zips/val2017.zip),以及标签[label](https://github.com/WongKinYiu/yolov7/releases/download/v0.1/coco2017labels-segments.zip)
dongchy920's avatar
dongchy920 committed
69
创建空文件夹datasets,将标签文件进行解压后放入datasets,然后将训练集和验证集分别解压后放入datasets/coco/images文件夹中。
dongchy920's avatar
dongchy920 committed
70
数据目录结构如下:
dongchy920's avatar
dongchy920 committed
71
72
```
 ── coco
dongchy920's avatar
dongchy920 committed
73
74
    |   ├── datasets
    |             ├── instances_val2017.json
dongchy920's avatar
dongchy920 committed
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
    |   ├── images
    |             ├── train2017
    |                          ├── xxx.png
    |                          ├── xxx.png
    |                          └── xxx.png
    |             ├── val2017
    |                          ├── xxx.png
    |                          ├── xxx.png
    |                          └── xxx.png
    |   ├── labels  
    |             ├── train2017
    |                          ├── xxx.txt
    |                          ├── xxx.txt
    |                          └── xxx.txt
    |             ├── val2017
    |                          ├── xxx.txt
    |                          ├── xxx.txt
    |                          └── xxx.txt
    |   train2017.txt
    |   val2017.txt
```
chenzk's avatar
chenzk committed
96
- 项目中已提供用于试验训练的迷你数据集[datasets](https://pan.baidu.com/s/1oKRgOW7jCLxzPZoQofl1mQ?pwd=0okl),下载后解压即可。
dongchy920's avatar
dongchy920 committed
97
## 训练
dongchy920's avatar
dongchy920 committed
98
权重文件下载[yolov9-c.pt](https://github.com/WongKinYiu/yolov9/releases/download/v0.1/yolov9-c.pt)
chenzk's avatar
chenzk committed
99

dongchy920's avatar
dongchy920 committed
100
101
102
103
104
105
106
107
108
109
### 单机多卡
```
python -m torch.distributed.launch --nproc_per_node 8 --master_port 9527 train_dual.py --workers 8 --device 0,1,2,3,4,5,6,7 --sync-bn --batch 128 --data data/coco.yaml --img 640 --cfg models/detect/yolov9-c.yaml --weights yolov9-c.pt --name yolov9-c --hyp hyp.scratch-high.yaml --min-items 0 --epochs 500 --close-mosaic 15
```

### 单机单卡
```
python train_dual.py --workers 8 --device 0 --batch 16 --data data/coco.yaml --img 640 --cfg models/detect/yolov9-c.yaml --weights yolov9-c.pt --name yolov9-c --hyp hyp.scratch-high.yaml --min-items 0 --epochs 500 --close-mosaic 15
```
## 推理
dongchy920's avatar
dongchy920 committed
110
使用权重文件[yolov9-c.pt](https://github.com/WongKinYiu/yolov9/releases/download/v0.1/yolov9-c.pt),运行yolov9推理
chenzk's avatar
chenzk committed
111

dongchy920's avatar
dongchy920 committed
112
113
114
115
116
117
118
119
120
121
```
python detect_dual.py --source './data/images/horses.jpg' --img 640 --device 0 --weights './yolov9-c.pt' --name yolov9_c_640_detect
```
## result

<div align=center>
    <img src="./doc/horses_prediction.jpg"/>
</div>

### 精度
chenzk's avatar
chenzk committed
122
测试数据:[test](http://images.cocodataset.org/zips/test2017.zip)
dongchy920's avatar
dongchy920 committed
123
124

测试指标:
125
126
| 模型 | 数据类型 | map0.5:0.95 | map0.5 |
| :------: | :------: | :------: | :------: |
dongchy920's avatar
dongchy920 committed
127
128
129
130
131
132
| yolo9-c-converted | 全精度 | 0.530 | 0.703 |
| yolo9-e-converted | 全精度 | 0.556 | 0.728 |
| yolo9-c | 全精度 | 0.530 | 0.703 |
| yolo9-e | 全精度 | 0.556 | 0.728 |
| gelan-c | 全精度 | 0.526 | 0.695 |
| gelan-e | 全精度 | 0.550 | 0.719 |
dongchy920's avatar
dongchy920 committed
133
134
135
136
137
138

gelan-c和gelan-e是使用GELAN架构(模仿了CSPNet,并将ELAN扩展为GELAN)训练的模型。

yolov9-c和yolo9-e (GELAN+PGI)是论文中提到的 yolov9 完整模型的权重偏置文件,是包括了辅助可逆分支PGI的。而对应的converted模型是删除了辅助分支之后的模型权重文件。


dongchy920's avatar
dongchy920 committed
139
140
## 应用场景
### 算法类别
141
目标检测
dongchy920's avatar
dongchy920 committed
142
143

### 热点应用行业
144
安防,交通,教育
dongchy920's avatar
dongchy920 committed
145
146
147


## 源码仓库及问题反馈
chenzk's avatar
chenzk committed
148
[https://developer.sourcefind.cn/codes/modelzoo/yolov9_pytorch](https://developer.sourcefind.cn/codes/modelzoo/yolov9_pytorch)
dongchy920's avatar
dongchy920 committed
149
150
151
152
## 参考资料
[https://github.com/WongKinYiu/yolov9](https://github.com/WongKinYiu/yolov9)