#
MMPretrain-MMCV
## 简介 MMPretrain 是 OpenMMLab 的一个开源库,提供多种预训练模型的预训练,支持视觉任务如图像分类、目标检测等。它具有模块化设计的特点,易于定制和扩展,兼容其他 OpenMMLab 工具,支持快速微调和评估模型,适合科研和工业中的计算机视觉应用。 ## 环境配置 ### Docker(方法一) 推荐使用docker方式运行,拉取提供的docker镜像 ```shell docker pull image.sourcefind.cn:5000/dcu/admin/base/pytorch:2.1.0-ubuntu20.04-dtk24.04.1-py3.10 ``` 基于拉取的镜像创建容器 ```shell # 用以上拉取的docker的镜像ID或名称替换 docker run -it --name=mmpretrain --network=host --ipc=host --shm-size=16g --device=/dev/kfd --device=/dev/dri --device=/dev/mkfd --group-add video --privileged --cap-add=SYS_PTRACE --security-opt seccomp=unconfined -v /opt/hyhal:/opt/hyhal:ro -v $PWD/mmpretrain_mmcv:/home/mmpretrain_mmcv bash ``` 克隆git仓库,并安装相关依赖 ```shell git clone http://developer.hpccube.com/codes/OpenDAS/mmpretrain-mmcv.git cd mmpretrain-mmcv pip install -e . pip install -r requirements.txt ``` ### Dockerfile(方法二) cd mmpretrain-mmcv/docker docker build --no-cache -t mmpretrain:latest . docker run -it --name=mmpretrain --network=host --ipc=host --shm-size=16g --device=/dev/kfd --device=/dev/dri --device=/dev/mkfd --group-add video --privileged --cap-add=SYS_PTRACE --security-opt seccomp=unconfined -v /opt/hyhal:/opt/hyhal:ro -v $PWD/mmpretrain:/home/mmpretrain bash pip install -e . # 若遇到Dockerfile启动的方式安装环境需要长时间等待,可注释掉里面的pip安装,启动容器后再安装python库: pip install -r requirements.txt ### Anaconda(方法三) 1、关于本项目DCU显卡所需的特殊深度学习库可从光合开发者社区下载安装: https://developer.hpccube.com/tool/ ```shell DTK驱动: DTK-24.04.1 python==3.10 torch==2.1.0 torchvision==0.16.0+das1.1.git7d45932.abi1.dtk2404.torch2.1 mmcv==2.0.1+das1.1.gite58da25.abi1.dtk2404.torch2.1.0 ``` Tips:以上dtk驱动、python、torch等DCU相关工具版本需要严格一一对应 2、安装mmpretrain仓库源码 ```shell cd mmpretrain-mmcv pip install -e . ``` 3、其它非特殊库参照requirements.txt安装 ```shell pip install -r requirements.txt ``` ### 环境验证 ```bash python -c "import mmpretrain;print(mmpretrain.__version__)" ``` ## 数据集准备 ### ImageNet 在本项目中可以使用ImageNet数据集。下载ImageNet数据集:https://image-net.org/ 可于SCNet快速下载[imagenet-2012](http://113.200.138.88:18080/aidatasets/project-dependency/imagenet-2012) 下载其中的ILSVRC2012_img_train.tar和ILSVRC2012_img_val.tar并按照以下方式解包 ```bash cd mmpretrain-mmcv/data/imagenet mkdir train && cd train tar -xvf ILSVRC2012_img_train.tar ``` 解包后是1000个tar文件,每个tar对应了一个类别,解包至对应文件夹 ```bash for tarfile in *.tar; do dirname="${tarfile%.tar}" mkdir "$dirname" tar -xvf "$tarfile" -C "$dirname" done ``` 目录结构如下 ``` data └── imagenet ├── train │   ├── n01440764 │   │   ├── n01440764_10026.JPEG │   │   ├── n01440764_10027.JPEG ├──val │   ├── n01440764 │   │   ├── ILSVRC2012_val_00000293.JPEG ``` ### tiny-imagenet-200 由于ImageNet完整数据集较大,可以使用[tiny-imagenet-200](http://cs231n.stanford.edu/tiny-imagenet-200.zip)进行测试,此时需要对配置脚本进行一些修改: - dataset配置文件(configs/\_\_base\_\_/datasets/xxx.py)中,需要对以下字段进行修改 ```python # dataset settings dataset_type = 'CustomDataset' # 修改为CustomDataset data_preprocessor = dict( num_classes=200, # 修改类别为200 ... ) ... train_dataloader = dict( batch_size=32, num_workers=5, dataset=dict( type=dataset_type, data_root='data/imagenet', data_prefix='train', # 改为data_prefix='train',val_dataloader中同理 pipeline=train_pipeline), sampler=dict(type='DefaultSampler', shuffle=True), ) ``` - model配置文件(configs/\_\_base\_\_/models/xxx.py)中,同样需要将类别相关的值设置为200。 ```python # model settings model = dict( type='ImageClassifier', ... head=dict( type='LinearClsHead', num_classes=200, # 将类别数改为200 ... )) ``` mmpretrain-mmcv中提供了使用tiny-imagenet-200进行训练的若干配置脚本,可参考进行设置。 将训练数据集解压后放置于mmpretrain-mmcv/data/,对于tiny-imagenet,目录结构如下: ``` data └── imagenet ├── test/ ├── train/ ├── val/ ├── wnids.txt └── words.txt ``` ## 启动训练 ```shell bash tools/dist_train.sh <配置文件脚本> <训练用卡数> ``` 如遇端口占用问题,可在tools/dist_train.sh修改端口 更多的配置文件在configs目录下,可根据需要进行修改,继承的基础配置在configs/\_base\_/下,具体地 - configs/\_base\_/datasets/xxx.py 数据集相关配置 - configs/\_base\_/models/xxx.py 模型相关配置 - configs/\_base\_/shedules/xxx.py 训练过程相关配置 ## Known Issue - 无 ## 参考资料 - [README_ORIGIN](README_ORIGIN.md) - [README_zh-CN](README_zh-CN.md) - [open-mmlab/mmpretrain: OpenMMLab Pre-training Toolbox and Benchmark (github.com)](https://github.com/open-mmlab/mmpretrain)