Commit be9e80e8 authored by liucong's avatar liucong
Browse files

修改unet工程示例

parent 68b1a45f
......@@ -106,6 +106,10 @@ ErrorCode Unet::Segmentation(const cv::Mat &srcImage, cv::Mat &maskImage)
// 推理
std::vector<migraphx::argument> results = net.eval(inputData);
// 如果想要指定输出节点,可以给eval()函数中提供outputNames参数来实现
//std::vector<std::string> outputNames = {"outputs"};
//std::vector<migraphx::argument> inferenceResults = net.eval(inputData, outputNames);
// 获取输出节点的属性
migraphx::argument result = results[0]; // 获取第一个输出节点的数据
......
# Convolutional Networks for Biomedical Image Segmentation(Unet)
# Unet
## 模型介绍
语义分割(Semantic Segmentation)是图像处理和机器视觉一个重要分支。与分类任务不同,语义分割需要判断图像每个像素点的类别,进行精确分割。语义分割目前在自动驾驶、自动抠图、医疗影像等领域有着比较广泛的应用。其中,Unet模型是最常用、最简单的一种分割模型,它简单、高效、易懂、容易构建、可以从小数据集中训练,具有较好的分割效果。
## 论文
U-Net: Convolutional Networks for Biomedical Image Segmentation
- https://arxiv.org/abs/1505.04597
## 模型结构
Unet模型整体为U型结构,主要分为三部分:下采样、上采样以及跳跃连接。首先,在左半部分进行编码阶段,通过卷积和下采样降低图像尺寸,提取一些浅层特征。其次,在右半部分进行解码阶段,通过卷积和上采样来获取一些深层次的特征。其中卷积采用无填充方式来保证结果都是基于没有缺失上下文特征得到的,因此每次经过卷积后,图像的大小会减小。最后,通过concat的方式,将编码阶段获得的feature map同解码阶段获得的feature map结合在一起,得到更加精细的细节,从而根据feature map进行预测分割。
## Python版本推理
UNet是一种用于图像分割的卷积神经网络(CNN)架构,该模型整体为U型结构。
下面介绍如何运行python代码示例,Python示例的详细说明见Doc目录下的Tutorial_Python.md。
<img src="./Doc/Images/Unet_01.png" style="zoom:80%;" align=middle>
### 下载镜像
## 模型结构
U-Net 的核心原理如下:
下载MIGraphX镜像:
1. **编码器(Contracting Path)**:U-Net 的编码器由卷积层和池化层组成,用于捕捉图像的特征信息并逐渐减小分辨率。这一部分的任务是将输入图像缩小到一个低分辨率的特征图,同时保留有关图像内容的关键特征。
2. **中间层(Bottleneck)**:在编码器和解码器之间,U-Net 包括一个中间层,通常由卷积层组成,用于进一步提取特征信息。
3. **解码器(Expansive Path)**:U-Net 的解码器包括上采样层和卷积层,用于将特征图恢复到原始输入图像的分辨率。解码器的任务是将高级特征与低级特征相结合,以便生成分割结果。这一部分的结构与编码器相对称。
```python
docker pull sugonhub/migraphx:3.2.1-centos7.6-dtk-23.04.1-py38
## 环境配置
### Docker
拉取镜像:
```
docker pull image.sourcefind.cn:5000/dcu/admin/base/migraphx:4.0.0-centos7.6-dtk23.04.1-py38-latest
```
### 设置Python环境变量
创建并启动容器:
```
docker run --shm-size 16g --network=host --name=unet_migraphx --privileged --device=/dev/kfd --device=/dev/dri --group-add video --cap-add=SYS_PTRACE --security-opt seccomp=unconfined -v $PWD/unet_migraphx:/home/unet_migraphx -it <Your Image ID> /bin/bash
# 激活dtk
source /opt/dtk/env.sh
```
## 数据集
根据提供的样本数据,进行图像分割。
## 推理
### Python版本推理
下面介绍如何运行python代码示例,Python示例的详细说明见Doc目录下的Tutorial_Python.md。
#### 设置环境变量
```
export PYTHONPATH=/opt/dtk/lib:$PYTHONPATH
```
### 安装依赖
#### 运行示例
```Python
# 进入unet migraphx工程根目录
......@@ -34,32 +64,17 @@ cd <path_to_unet_migraphx>
cd Python/
# 安装依赖
pip install -r requirements.txt
```
pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple
### 运行示例
```python
# 运行示例
python Unet.py
```
会在当前目录中生成分割图像
<img src="./Doc/Images/Unet_03.jpg" style="zoom:100%;" align=middle>
## C++版本推理
### C++版本推理
下面介绍如何运行C++代码示例,C++示例的详细说明见Doc目录下的Tutorial_Cpp.md。
### 下载镜像
下载MIGraphX镜像:
```
docker pull sugonhub/migraphx:3.2.1-centos7.6-dtk-23.04.1-py38
```
### 安装Opencv依赖
#### 安装Opencv依赖
```python
cd <path_to_unet_migraphx>
......@@ -67,13 +82,13 @@ sh ./3rdParty/InstallOpenCVDependences.sh
```
### 安装OpenCV并构建工程
#### 安装OpenCV并构建工程
```
rbuild build -d depend
```
### 设置环境变量
#### 设置环境变量
将依赖库依赖加入环境变量LD_LIBRARY_PATH,在~/.bashrc中添加如下语句:
......@@ -87,7 +102,7 @@ export LD_LIBRARY_PATH=<path_to_unet_migraphx>/depend/lib64/:$LD_LIBRARY_PATH
source ~/.bashrc
```
### 运行示例
#### 运行示例
```python
# 进入unet migraphx工程根目录
......@@ -100,10 +115,30 @@ cd build/
./Unet
```
会在当前目录中生成分割图像。
## result
### Python版本
python程序运行结束后,会在当前目录中生成分割图像。
<img src="./Doc/Images/Unet_03.jpg" style="zoom:100%;" align=middle>
### C++版本
C++程序运行结束后,会在build目录生成分割图像。
<img src="./Doc/Images/Unet_02.jpg" style="zoom:100%;" align=middle>
## 应用场景
### 算法类别
`图像分割`
### 热点应用行业
`制造``交通``医疗`
## 源码仓库及问题反馈
https://developer.hpccube.com/codes/modelzoo/unet_migraphx
......
# 模型唯一标识
modelCode=215
# 模型名称
modelName=Unet_MIGraphX
modelName=unet_migraphx
# 模型描述
modelDescription=Unet是最常用的一种图像分割模型
# 应用场景
appScenario=推理,图像分割,cv
appScenario=推理,图像分割,CV
# 框架类型
frameType=MIGraphX
\ No newline at end of file
frameType=migraphx
\ No newline at end of file
Markdown is supported
0% or .
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment