Commit 3db4c3d9 authored by chenzk's avatar chenzk
Browse files

Update url.md

parent 365ef2c5
...@@ -64,8 +64,8 @@ pip install -r requirements.txt ...@@ -64,8 +64,8 @@ pip install -r requirements.txt
``` ```
## 数据集 ## 数据集
`MS COCO` `MS COCO`
[快速下载通道](http://113.200.138.88:18080/aidatasets/coco2017)
- 训练集[train2017.zip](http://images.cocodataset.org/zips/train2017.zip)-[快速下载通道](http://113.200.138.88:18080/aidatasets/coco2017/-/blob/main/train2017.zip?ref_type=heads),验证集[val2017.zip](http://images.cocodataset.org/zips/val2017.zip)-[快速下载通道](http://113.200.138.88:18080/aidatasets/coco2017/-/blob/main/val2017.zip?ref_type=heads),以及标签[label](https://github.com/WongKinYiu/yolov7/releases/download/v0.1/coco2017labels-segments.zip)-[快速下载通道](http://113.200.138.88:18080/aidatasets/coco2017/-/blob/main/annotations_trainval2017.zip?ref_type=heads) - 训练集[train2017.zip](http://images.cocodataset.org/zips/train2017.zip),验证集[val2017.zip](http://images.cocodataset.org/zips/val2017.zip),以及标签[label](https://github.com/WongKinYiu/yolov7/releases/download/v0.1/coco2017labels-segments.zip)
创建空文件夹datasets,将标签文件进行解压后放入datasets,然后将训练集和验证集分别解压后放入datasets/coco/images文件夹中。 创建空文件夹datasets,将标签文件进行解压后放入datasets,然后将训练集和验证集分别解压后放入datasets/coco/images文件夹中。
数据目录结构如下: 数据目录结构如下:
``` ```
...@@ -93,10 +93,10 @@ pip install -r requirements.txt ...@@ -93,10 +93,10 @@ pip install -r requirements.txt
| train2017.txt | train2017.txt
| val2017.txt | val2017.txt
``` ```
- 项目中已提供用于试验训练的迷你数据集[datasets](https://pan.baidu.com/s/1oKRgOW7jCLxzPZoQofl1mQ?pwd=0okl)-[快速下载通道](http://113.200.138.88:18080/aidatasets/project-dependency/ms_coco),下载后解压即可。 - 项目中已提供用于试验训练的迷你数据集[datasets](https://pan.baidu.com/s/1oKRgOW7jCLxzPZoQofl1mQ?pwd=0okl),下载后解压即可。
## 训练 ## 训练
权重文件下载[yolov9-c.pt](https://github.com/WongKinYiu/yolov9/releases/download/v0.1/yolov9-c.pt) 权重文件下载[yolov9-c.pt](https://github.com/WongKinYiu/yolov9/releases/download/v0.1/yolov9-c.pt)
[快速下载通道](http://113.200.138.88:18080/aimodels/findsource-dependency/yolov9_migraphx/-/blob/main/yolov9-c.pt)
### 单机多卡 ### 单机多卡
``` ```
python -m torch.distributed.launch --nproc_per_node 8 --master_port 9527 train_dual.py --workers 8 --device 0,1,2,3,4,5,6,7 --sync-bn --batch 128 --data data/coco.yaml --img 640 --cfg models/detect/yolov9-c.yaml --weights yolov9-c.pt --name yolov9-c --hyp hyp.scratch-high.yaml --min-items 0 --epochs 500 --close-mosaic 15 python -m torch.distributed.launch --nproc_per_node 8 --master_port 9527 train_dual.py --workers 8 --device 0,1,2,3,4,5,6,7 --sync-bn --batch 128 --data data/coco.yaml --img 640 --cfg models/detect/yolov9-c.yaml --weights yolov9-c.pt --name yolov9-c --hyp hyp.scratch-high.yaml --min-items 0 --epochs 500 --close-mosaic 15
...@@ -108,7 +108,7 @@ python train_dual.py --workers 8 --device 0 --batch 16 --data data/coco.yaml --i ...@@ -108,7 +108,7 @@ python train_dual.py --workers 8 --device 0 --batch 16 --data data/coco.yaml --i
``` ```
## 推理 ## 推理
使用权重文件[yolov9-c.pt](https://github.com/WongKinYiu/yolov9/releases/download/v0.1/yolov9-c.pt),运行yolov9推理 使用权重文件[yolov9-c.pt](https://github.com/WongKinYiu/yolov9/releases/download/v0.1/yolov9-c.pt),运行yolov9推理
[快速下载通道](http://113.200.138.88:18080/aimodels/findsource-dependency/yolov9_migraphx/-/blob/main/yolov9-c.pt)
``` ```
python detect_dual.py --source './data/images/horses.jpg' --img 640 --device 0 --weights './yolov9-c.pt' --name yolov9_c_640_detect python detect_dual.py --source './data/images/horses.jpg' --img 640 --device 0 --weights './yolov9-c.pt' --name yolov9_c_640_detect
``` ```
...@@ -119,7 +119,7 @@ python detect_dual.py --source './data/images/horses.jpg' --img 640 --device 0 - ...@@ -119,7 +119,7 @@ python detect_dual.py --source './data/images/horses.jpg' --img 640 --device 0 -
</div> </div>
### 精度 ### 精度
测试数据:[test](http://images.cocodataset.org/zips/test2017.zip)-[快速下载通道](http://113.200.138.88:18080/aidatasets/coco2017/-/blob/main/test2017.zip?ref_type=heads) 测试数据:[test](http://images.cocodataset.org/zips/test2017.zip)
测试指标: 测试指标:
| 模型 | 数据类型 | map0.5:0.95 | map0.5 | | 模型 | 数据类型 | map0.5:0.95 | map0.5 |
......
Markdown is supported
0% or .
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment