Skip to content
GitLab
Menu
Projects
Groups
Snippets
Loading...
Help
Help
Support
Community forum
Keyboard shortcuts
?
Submit feedback
Contribute to GitLab
Sign in / Register
Toggle navigation
Menu
Open sidebar
ModelZoo
UNet_migraphx
Commits
86d18c5d
Commit
86d18c5d
authored
Jun 14, 2023
by
liucong
Browse files
增加properties文件
parent
cd789923
Changes
2
Hide whitespace changes
Inline
Side-by-side
Showing
2 changed files
with
11 additions
and
3 deletions
+11
-3
README.md
README.md
+3
-3
model.properties
model.properties
+8
-0
No files found.
README.md
View file @
86d18c5d
...
...
@@ -4,7 +4,7 @@
语义分割(Semantic Segmentation)是图像处理和机器视觉一个重要分支。与分类任务不同,语义分割需要判断图像每个像素点的类别,进行精确分割。语义分割目前在自动驾驶、自动抠图、医疗影像等领域有着比较广泛的应用。其中,Unet模型是最常用、最简单的一种分割模型,它简单、高效、易懂、容易构建、可以从小数据集中训练,具有较好的分割效果。
## 模型结构
U
-
net模型整体为U型结构,主要分为三部分:下采样、上采样以及跳跃连接。首先,在左半部分进行编码阶段,通过卷积和下采样降低图像尺寸,提取一些浅层特征。其次,在右半部分进行解码阶段,通过卷积和上采样来获取一些深层次的特征。其中卷积采用无填充方式来保证结果都是基于没有缺失上下文特征得到的,因此每次经过卷积后,图像的大小会减小。最后,通过concat的方式,将编码阶段获得的feature map同解码阶段获得的feature map结合在一起,得到更加精细的细节,从而根据feature map进行预测分割。
Unet模型整体为U型结构,主要分为三部分:下采样、上采样以及跳跃连接。首先,在左半部分进行编码阶段,通过卷积和下采样降低图像尺寸,提取一些浅层特征。其次,在右半部分进行解码阶段,通过卷积和上采样来获取一些深层次的特征。其中卷积采用无填充方式来保证结果都是基于没有缺失上下文特征得到的,因此每次经过卷积后,图像的大小会减小。最后,通过concat的方式,将编码阶段获得的feature map同解码阶段获得的feature map结合在一起,得到更加精细的细节,从而根据feature map进行预测分割。
## Python版本推理
...
...
@@ -119,11 +119,11 @@ cd ./build/
<img
src=
"./Doc/Images/Unet_02.jpg"
style=
"zoom:100%;"
align=
middle
>
##
历史版本
##
源码仓库及问题反馈
https://developer.hpccube.com/codes/modelzoo/unet_migraphx
## 参考
资料
## 参考
https://github.com/ROCmSoftwarePlatform/AMDMIGraphX/tree/develop/examples/vision/python_unet
model.properties
0 → 100644
View file @
86d18c5d
# 模型名称
modelName
=
Unet_MIGraphX
# 模型描述
modelDescription
=
Unet是最常用的一种图像分割模型
# 应用场景
appScenario
=
推理,图像分割,cv
# 框架类型
frameType
=
MIGraphX
\ No newline at end of file
Write
Preview
Markdown
is supported
0%
Try again
or
attach a new file
.
Attach a file
Cancel
You are about to add
0
people
to the discussion. Proceed with caution.
Finish editing this message first!
Cancel
Please
register
or
sign in
to comment