README.md 3.79 KB
Newer Older
dcuai's avatar
dcuai committed
1
# YOLOX
dlyrm's avatar
dlyrm committed
2
3
4
5
6
7
8
9
10
11
12
13
## 论文
`YOLOX: Exceeding YOLO Series in 2021`<br>
[论文链接](https://arxiv.org/abs/2107.08430)
## 模型结构
YoloX由旷视科技开源,以YoloV3(Darknet53作为backbone)作为基线,在样本增样,样本匹配,模型输出头等进行了优化 [Decoupled Head,Data Aug,Anchor Free,SimOTA]
![model_structure.jpg](resources%2Fmodel_structure.jpg)
## 算法原理
宏观架构上在yolov3的基础之上,进行优化,通过对检测头解耦,样本匹配,训练策略等多个方面进行了改进,从而提升了模型性能和收敛速度
对构建单元进行了更新
![head.jpg](resources%2Fhead.jpg)
## 环境配置
### Docker(方法一)
dengjb's avatar
dengjb committed
14

dlyrm's avatar
dlyrm committed
15
```
dcuai's avatar
dcuai committed
16
17
docker pull image.sourcefind.cn:5000/dcu/admin/base/pytorch:2.1.0-ubuntu20.04-dtk24.04.1-py3.10
docker run -it -v /path/your_code_data/:/path/your_code_data/ -v /opt/hyhal:/opt/hyhal:ro --shm-size=32G --privileged=true --device=/dev/kfd --device=/dev/dri/ --group-add video --name docker_name imageID bash
dlyrm's avatar
dlyrm committed
18
19
20
21
22
23
24
cd /path/workspace/
pip install mmdet==3.2.0 -i https://mirrors.aliyun.com/pypi/simple/
```
### Dockerfile(方法二)
```
cd ./docker
docker build --no-cache -t mmdet:3.0 .
dcuai's avatar
dcuai committed
25
docker run -it -v /path/your_code_data/:/path/your_code_data/ -v /opt/hyhal:/opt/hyhal:ro --shm-size=32G --privileged=true --device=/dev/kfd --device=/dev/dri/ --group-add video --name docker_name imageID bash
dlyrm's avatar
dlyrm committed
26
27
28
cd /path/workspace/
```
### Anaconda(方法三)
chenzk's avatar
chenzk committed
29
1、关于本项目DCU显卡所需的特殊深度学习库可从光合开发者社区下载安装: https://developer.sourcefind.cn/tool/
dlyrm's avatar
dlyrm committed
30
```
dcuai's avatar
dcuai committed
31
32
33
34
35
DTK软件栈: dtk24.04.1
python: python3.10
torch: 2.1.0
torchvision: 0.16.0
mmcv: 2.0.1
dlyrm's avatar
dlyrm committed
36
37
38
39
40
41
42
43
44
45
46
47
48
49

```

Tips:以上dtk软件栈、python、torch、mmcv等DCU相关工具版本需要严格一一对应

2、其他非特殊库直接按照requirements.txt安装

```
cd workspace/
pip install mmdet==3.2.0 -i https://mirrors.aliyun.com/pypi/simple/
```

## 数据集

dengjb's avatar
dengjb committed
50
在本测试中可以使用COCO2017数据集。
chenzk's avatar
chenzk committed
51

dengjb's avatar
dengjb committed
52
53
54
55
56
- 官方下载地址
  - [训练数据](http://images.cocodataset.org/zips/train2017.zip)
  - [验证数据](http://images.cocodataset.org/zips/val2017.zip)
  - [测试数据](http://images.cocodataset.org/zips/test2017.zip)
  - [标签数据](https://github.com/ultralytics/yolov5/releases/download/v1.0/coco2017labels.zip)
dlyrm's avatar
dlyrm committed
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78

数据集的目录结构如下:

```
├── images 
│   ├── train2017
│   ├── val2017
│   ├── test2017
├── labels
│   ├── train2017
│   ├── val2017
├── annotations
│   ├── instances_val2017.json
├── LICENSE
├── README.txt 
├── test-dev2017.txt
├── train2017.txt
├── val2017.txt

```

## 训练
dengjb's avatar
dengjb committed
79
- 如需要变更数据集目录 请修改 configs/yolox/yolox_s_8xb8-300e_coco.py 下的 data_root
dlyrm's avatar
dlyrm committed
80
81
82
83
```python
bash ./train.sh
```
## 推理
chenzk's avatar
chenzk committed
84
85
- 可使用官方模型权重进行推理,也可使用自己训练模型权重进行推理。

dengjb's avatar
dengjb committed
86
87
88
- 官方下载地址:
  - [下载地址:yolox_s_8x8_300e_coco_20211121_095711-4592a793.pth](https://download.openmmlab.com/mmdetection/v2.0/yolox/yolox_s_8x8_300e_coco/yolox_s_8x8_300e_coco_20211121_095711-4592a793.pth)
- 这里以官方模型推理举例
dlyrm's avatar
dlyrm committed
89
90
91
92
93
94
```python
# 官方推理代码
python demo/image_demo.py demo/demo.jpg ./configs/yolox/yolox_s_8xb8-300e_coco.py --weights yolox_s_8x8_300e_coco_20211121_095711-4592a793.pth --device cuda
```
## result
![result](./resources/result.jpg)
dengjb's avatar
dengjb committed
95
### 精度
dlyrm's avatar
dlyrm committed
96
97
98
99
100
101
102
103
104
105
|   模型名称   | batchsize | amp混精 |  精度  |
|:--------:|:---------:|:-----:|:----:|
| yolox-s |    256    |  off  | 40.3 |
| yolox-s  |    256    |  on   | 40.1 |
## 应用场景
### 算法类别
`目标检测`
### 热点应用行业
`金融,交通,教育`
## 源码仓库及问题反馈
chenzk's avatar
chenzk committed
106
- https://developer.sourcefind.cn/codes/modelzoo/yolox_mmcv
dlyrm's avatar
dlyrm committed
107
108
## 参考资料
- https://github.com/open-mmlab/mmdetection/tree/v3.2.0