# HDETR
## 论文
[DETRs with Hybrid Matching](https://arxiv.org/abs/2207.13080)
## 模型结构
基于DETR结构,在匹配阶段加入一对多的匹配分支。
## 算法原理
H-DETR引入一对多匹配分支,将原始的一对一匹配分支与一个辅助的一对多匹配分支结合起来,允许多个查询分配给每个正样本,增加正样本查询数量,提高训练效果。此外,H-DETR在推理过程中仍然使用原始的一对一匹配分支,以保持DETR的优势。
## 环境配置
注意:requirements.txt安装完成后,还需要额外安装下列包
```
pip install openmim
mim install mmcv-full (注意版本是不是1.7.1)
pip install mmdet==2.26.0 (对应mmcv 1.7.1)
```
-v 路径、docker_name和imageID根据实际情况修改
### Docker(方法一)
```
docker pull image.sourcefind.cn:5000/dcu/admin/base/pytorch:1.13.1-centos7.6-dtk-23.04.1-py38-latest
docker run -it -v /path/your_code_data/:/path/ your_code_data/ --shm-size=80G --privileged=true --device=/dev/kfd --device=/dev/dri/ --group-add video --name docker_name imageID bash
cd /your_code_path/HDETR_pytorch
pip install -r requirements.txt
```
### Dockerfile(方法二)
```
cd ./docker
cp ../requirements.txt requirements.txt
docker build --no-cache -t hdetr:latest .
docker run -it -v /path/your_code_data/:/path/your_code_data/ --shm-size=80G --privileged=true --device=/dev/kfd --device=/dev/dri/ --group-add video --name docker_name imageID bash
```
### Anaconda(方法三)
1、关于本项目DCU显卡所需的特殊深度学习库可从光合开发者社区下载安装: https://developer.hpccube.com/tool/
```
DTK软件栈:dtk23.04.1
python:python3.8
torch:1.13.1
torchvision:0.14.1
```
Tips:以上dtk软件栈、python、torch等DCU相关工具版本需要严格一一对应
2、其他非特殊库直接按照requirements.txt安装
```
pip3 install -r requirements.txt
```
## 数据集
COCO2017
[训练数据](http://images.cocodataset.org/zips/train2017.zip)
[验证数据](http://images.cocodataset.org/zips/val2017.zip)
[测试数据](http://images.cocodataset.org/zips/test2017.zip)
[标签数据](https://github.com/ultralytics/yolov5/releases/download/v1.0/coco2017labels.zip)
数据集的目录结构如下:
```
├── COCO2017
│ ├── images
│ ├── train2017
│ ├── val2017
│ └── test2017
│ ├── annotations
│ ├── instances_train2017.json
│ └── instances_val2017.json
```
训练/验证集数据准备:
训练/验证集都是采用的COCO的数据格式,如果使用自己的标注数据,请先将标注数据转换成COCO的格式,并按照上面的目录结构进行存放。
## 训练
训练前的准备工作:
1. 进行下面步骤编译
```
cd ./models/ops
bash ./make.sh
```
2. 进行单元测试,需要所有的结果都为TRUE
```
python test.py
cd ../../
```
3. 选择需要训练的模型的config, 设置为需要训练的模型属性, 设置为当前环境中训练数据对应地址。
Tips:
1. 如果有预训练模型,修改config中的 --pretrained_backbone_path 为保存的预训练模型地址;
2. 如果使用backbone为swin,可前往 https://github.com/microsoft/Swin-Transformer 选择对应的预训练模型后再进行训练步骤。
### 单机单卡
```
bash train.sh
```
### 单机多卡
```
bash train_multi.sh
```
### 多机多卡
#### slurm cluster训练方式
分区名称
本次执行的任务名称,建议可以使用{模型}_卡数_单卡bs_日期进行命名
需要训练的模型属性, 参见configs文件夹下选择
1 node with 4 DCUs:
```
GPUS_PER_NODE=4 ./tools/run_dist_slurm.sh 4
```
2 nodes(example is 2) of each with 4 DCUs:
```
GPUS_PER_NODE=4 ./tools/run_dist_slurm.sh 8
```
## 推理
验证前需提前准备好预训练模型,设置为模型地址,为当前环境中推理数据的对应地址,数据应为COCO数据格式。
如没有预训练模型,可从 参考资料 中提供的模型下载,选择模型对应的config后进行效果验证。
如果想要查看预测效果(预测结果输出到图片上),请执行:
```
python test.py --pre_trained_model --coco_path
```
其余对应参数与训练模型参数需一致,详情请参考代码里面的参数配置:
#### 单卡推理
```
bash val.sh
```
#### 多卡推理
```
bash val_multi.sh
```
## result
COCO2017测试集上的单张图像结果展示:
### 精度
在COCO2017的测试集上进行单卡测试,结果如下表所示
根据测试结果情况填写表格:
| Name | Backbone | query | epochs | AP |
| :--------: | :------: | :------: | :------: | :------: |
| H-Deformable-DETR + tricks(our) | R50 | 300 | 12 | xxx |
| H-Deformable-DETR + tricks | R50 | 300 | 12 | 48.7 |
## 应用场景
### 算法类别
目标检测
### 热点应用行业
网安,交通,政府
## 源码仓库及问题反馈
https://developer.hpccube.com/codes/modelzoo/hdetr_pytorch
## 参考资料
https://github.com/HDETR/H-Deformable-DETR