Skip to content
GitLab
Menu
Projects
Groups
Snippets
Loading...
Help
Help
Support
Community forum
Keyboard shortcuts
?
Submit feedback
Contribute to GitLab
Sign in / Register
Toggle navigation
Menu
Open sidebar
wangsen
paddle_dbnet
Commits
a5b5bfe4
Commit
a5b5bfe4
authored
May 05, 2022
by
LDOUBLEV
Browse files
fix
parent
72d26130
Changes
3
Hide whitespace changes
Inline
Side-by-side
Showing
3 changed files
with
7 additions
and
6 deletions
+7
-6
doc/doc_ch/PP-OCRv3_introduction.md
doc/doc_ch/PP-OCRv3_introduction.md
+6
-5
doc/doc_ch/ppocr_introduction.md
doc/doc_ch/ppocr_introduction.md
+1
-1
doc/ppocr_v3/LKPAN.png
doc/ppocr_v3/LKPAN.png
+0
-0
No files found.
doc/doc_ch/PP-OCRv3_introduction.md
View file @
a5b5bfe4
...
@@ -44,10 +44,11 @@ RSEFPN的网络结构如下图所示,RSEFPN在PP-OCRv2的FPN基础上,将FPN
...
@@ -44,10 +44,11 @@ RSEFPN的网络结构如下图所示,RSEFPN在PP-OCRv2的FPN基础上,将FPN
<img
src=
".././ppocr_v3/RSEFPN.png"
width=
"800"
>
<img
src=
".././ppocr_v3/RSEFPN.png"
width=
"800"
>
</div>
</div>
RSEFPN将PP-OCR检测模型的精度hmean从81.3%提升到84.5%。模型大小从3M变为3.6M。
RSEFPN将PP-OCR检测模型的精度hmean从81.3%提升到84.5%。模型大小从3M变为3.6M。
-
在蒸馏的teacher模型精度提升方面,提出了LKPAN结构替换PP-OCRv2的FPN结构,并且使用ResNet50作为Backbone,更大的模型带来更多的精度提升。另外,对teacher模型使用
[
DML
](
https://arxiv.org/abs/1706.00384
)
蒸馏策略进一步提升teacher模型的精度。最终teacher的模型指标hmean从83.2%提升到了86.0%。
*注:PP-OCRv2的FPN通道数仅为96和24,如果直接用SE模块代替FPN的卷积会导致精度下降,使用残差结构可以防止训练中包含重要特征的通道被抑制。*
-
在蒸馏的teacher模型精度提升方面,提出了LKPAN结构替换PP-OCRv2的FPN结构,并且使用ResNet50作为Backbone,更大的模型带来更多的精度提升。另外,对teacher模型使用
[
DML
](
https://arxiv.org/abs/1706.00384
)
蒸馏策略进一步提升teacher模型的精度。最终teacher的模型指标相比ppocr_server_v2.0从83.2%提升到了86.0%。
*注:[PP-OCRv2的FPN结构](https://github.com/PaddlePaddle/PaddleOCR/blob/77acb3bfe51c8a46c684527f73cd218cefedb4a3/ppocr/modeling/necks/db_fpn.py#L107)对DB算法FPN结构做了轻量级设计*
*注:[PP-OCRv2的FPN结构](https://github.com/PaddlePaddle/PaddleOCR/blob/77acb3bfe51c8a46c684527f73cd218cefedb4a3/ppocr/modeling/necks/db_fpn.py#L107)对DB算法FPN结构做了轻量级设计*
...
@@ -57,7 +58,7 @@ LKPAN的网络结构如下图所示:
...
@@ -57,7 +58,7 @@ LKPAN的网络结构如下图所示:
<img
src=
"../ppocr_v3/LKPAN.png"
width=
"800"
>
<img
src=
"../ppocr_v3/LKPAN.png"
width=
"800"
>
</div>
</div>
LKPAN(Large Kernel PAN)是一个具有更大感受野的轻量级
[
PAN
](
https://arxiv.org/pdf/1803.01534.pdf
)
结构。在LKPAN的path augmentation中,使用kernel size为
`9*9`
的卷积;更大的kernel size意味着更大的感受野,更容易检测大字体的文字以及极端长宽比的文字。LKPAN将
base
检测模型的精度hmean从81.3%提升到84.9%。
LKPAN(Large Kernel PAN)是一个具有更大感受野的轻量级
[
PAN
](
https://arxiv.org/pdf/1803.01534.pdf
)
结构。在LKPAN的path augmentation中,使用kernel size为
`9*9`
的卷积;更大的kernel size意味着更大的感受野,更容易检测大字体的文字以及极端长宽比的文字。LKPAN将
PP-OCR
检测模型的精度hmean从81.3%提升到84.9%。
*注:LKPAN相比RSEFPN有更多的精度提升,但是考虑到模型大小和预测速度等因素,在student模型中使用RSEFPN。*
*注:LKPAN相比RSEFPN有更多的精度提升,但是考虑到模型大小和预测速度等因素,在student模型中使用RSEFPN。*
...
@@ -71,8 +72,8 @@ LKPAN(Large Kernel PAN)是一个具有更大感受野的轻量级[PAN](https://a
...
@@ -71,8 +72,8 @@ LKPAN(Large Kernel PAN)是一个具有更大感受野的轻量级[PAN](https://a
|1|PP-OCRV2|3M|83.3%|117ms|
|1|PP-OCRV2|3M|83.3%|117ms|
|2|0 + RESFPN|3.6M|84.5%|124ms|
|2|0 + RESFPN|3.6M|84.5%|124ms|
|3|0 + LKPAN|4.6M|84.9%|156ms|
|3|0 + LKPAN|4.6M|84.9%|156ms|
|4|
teacher
|124M|83.2%|
-
|
|4|
ppocr_server_v2.0
|124M|83.2%|
|171ms
|
|5|teacher + DML + LKPAN|124M|86.0%|
-
|
|5|teacher + DML + LKPAN|124M|86.0%|
396ms
|
|6|0 + 2 + 5 + CML|3.6M|85.4%|124ms|
|6|0 + 2 + 5 + CML|3.6M|85.4%|124ms|
...
...
doc/doc_ch/ppocr_introduction.md
View file @
a5b5bfe4
...
@@ -47,7 +47,7 @@ PP-OCRv3文本检测从网络结构、蒸馏训练策略两个方向做了进一
...
@@ -47,7 +47,7 @@ PP-OCRv3文本检测从网络结构、蒸馏训练策略两个方向做了进一
|-|-|-|-|-|
|-|-|-|-|-|
|0|ppocr_mobile|3M|81.3|117ms|
|0|ppocr_mobile|3M|81.3|117ms|
|1|PPOCRV2|3M|83.3|117ms|
|1|PPOCRV2|3M|83.3|117ms|
|2|teacher DML|124M|86.0|
-
|
|2|teacher DML
+ LKPAN
|124M|86.0|
396ms
|
|3|1 + 2 + RESFPN|3.6M|85.4|124ms|
|3|1 + 2 + RESFPN|3.6M|85.4|124ms|
|4|1 + 2 + LKPAN|4.6M|86.0|156ms|
|4|1 + 2 + LKPAN|4.6M|86.0|156ms|
...
...
doc/ppocr_v3/LKPAN.png
View replaced file @
72d26130
View file @
a5b5bfe4
126 KB
|
W:
|
H:
130 KB
|
W:
|
H:
2-up
Swipe
Onion skin
Write
Preview
Markdown
is supported
0%
Try again
or
attach a new file
.
Attach a file
Cancel
You are about to add
0
people
to the discussion. Proceed with caution.
Finish editing this message first!
Cancel
Please
register
or
sign in
to comment