Skip to content
GitLab
Menu
Projects
Groups
Snippets
Loading...
Help
Help
Support
Community forum
Keyboard shortcuts
?
Submit feedback
Contribute to GitLab
Sign in / Register
Toggle navigation
Menu
Open sidebar
wangsen
paddle_dbnet
Commits
80aced81
Commit
80aced81
authored
May 06, 2022
by
Leif
Browse files
Merge remote-tracking branch 'origin/dygraph' into dygraph
parents
fce82425
896d149e
Changes
153
Hide whitespace changes
Inline
Side-by-side
Showing
20 changed files
with
1406 additions
and
319 deletions
+1406
-319
doc/doc_ch/algorithm_inference.md
doc/doc_ch/algorithm_inference.md
+1
-1
doc/doc_ch/algorithm_rec_crnn.md
doc/doc_ch/algorithm_rec_crnn.md
+140
-0
doc/doc_ch/algorithm_rec_nrtr.md
doc/doc_ch/algorithm_rec_nrtr.md
+154
-0
doc/doc_ch/algorithm_rec_rare.md
doc/doc_ch/algorithm_rec_rare.md
+121
-0
doc/doc_ch/algorithm_rec_rosetta.md
doc/doc_ch/algorithm_rec_rosetta.md
+123
-0
doc/doc_ch/algorithm_rec_sar.md
doc/doc_ch/algorithm_rec_sar.md
+1
-1
doc/doc_ch/algorithm_rec_seed.md
doc/doc_ch/algorithm_rec_seed.md
+113
-0
doc/doc_ch/algorithm_rec_srn.md
doc/doc_ch/algorithm_rec_srn.md
+1
-1
doc/doc_ch/algorithm_rec_starnet.md
doc/doc_ch/algorithm_rec_starnet.md
+139
-0
doc/doc_ch/algorithm_rec_svtr.md
doc/doc_ch/algorithm_rec_svtr.md
+176
-0
doc/doc_ch/benchmark.md
doc/doc_ch/benchmark.md
+1
-1
doc/doc_ch/config.md
doc/doc_ch/config.md
+1
-1
doc/doc_ch/dataset/docvqa_datasets.md
doc/doc_ch/dataset/docvqa_datasets.md
+27
-0
doc/doc_ch/inference_ppocr.md
doc/doc_ch/inference_ppocr.md
+17
-13
doc/doc_ch/knowledge_distillation.md
doc/doc_ch/knowledge_distillation.md
+182
-138
doc/doc_ch/models_list.md
doc/doc_ch/models_list.md
+55
-20
doc/doc_ch/multi_languages.md
doc/doc_ch/multi_languages.md
+56
-2
doc/doc_ch/ppocr_introduction.md
doc/doc_ch/ppocr_introduction.md
+19
-8
doc/doc_ch/quickstart.md
doc/doc_ch/quickstart.md
+15
-22
doc/doc_ch/recognition.md
doc/doc_ch/recognition.md
+64
-111
No files found.
doc/doc_ch/algorithm_inference.md
View file @
80aced81
...
...
@@ -296,7 +296,7 @@ Predicts of ./doc/imgs_words_en/word_336.png:('super', 0.9999073)
**注意**
:由于上述模型是参考
[
DTRB
](
https://arxiv.org/abs/1904.01906
)
文本识别训练和评估流程,与超轻量级中文识别模型训练有两方面不同:
-
训练时采用的图像分辨率不同,训练上述模型采用的图像分辨率是[3,32,100],而中文模型训练时,为了保证长文本的识别效果,训练时采用的图像分辨率是[3, 32, 320]。预测推理程序默认的
的
形状参数是训练中文采用的图像分辨率,即[3, 32, 320]。因此,这里推理上述英文模型时,需要通过参数rec_image_shape设置识别图像的形状。
-
训练时采用的图像分辨率不同,训练上述模型采用的图像分辨率是[3,32,100],而中文模型训练时,为了保证长文本的识别效果,训练时采用的图像分辨率是[3, 32, 320]。预测推理程序默认的形状参数是训练中文采用的图像分辨率,即[3, 32, 320]。因此,这里推理上述英文模型时,需要通过参数rec_image_shape设置识别图像的形状。
-
字符列表,DTRB论文中实验只是针对26个小写英文本母和10个数字进行实验,总共36个字符。所有大小字符都转成了小写字符,不在上面列表的字符都忽略,认为是空格。因此这里没有输入字符字典,而是通过如下命令生成字典.因此在推理时需要设置参数rec_char_dict_path,指定为英文字典"./ppocr/utils/ic15_dict.txt"。
...
...
doc/doc_ch/algorithm_rec_crnn.md
0 → 100644
View file @
80aced81
# CRNN
-
[
1. 算法简介
](
#1
)
-
[
2. 环境配置
](
#2
)
-
[
3. 模型训练、评估、预测
](
#3
)
-
[
3.1 训练
](
#3-1
)
-
[
3.2 评估
](
#3-2
)
-
[
3.3 预测
](
#3-3
)
-
[
4. 推理部署
](
#4
)
-
[
4.1 Python推理
](
#4-1
)
-
[
4.2 C++推理
](
#4-2
)
-
[
4.3 Serving服务化部署
](
#4-3
)
-
[
4.4 更多推理部署
](
#4-4
)
-
[
5. FAQ
](
#5
)
<a
name=
"1"
></a>
## 1. 算法简介
论文信息:
> [An End-to-End Trainable Neural Network for Image-based Sequence Recognition and Its Application to Scene Text Recognition](https://arxiv.org/abs/1507.05717)
> Baoguang Shi, Xiang Bai, Cong Yao
> IEEE, 2015
参考
[
DTRB
](
https://arxiv.org/abs/1904.01906
)
文字识别训练和评估流程,使用MJSynth和SynthText两个文字识别数据集训练,在IIIT, SVT, IC03, IC13, IC15, SVTP, CUTE数据集上进行评估,算法效果如下:
|模型|骨干网络|Avg Accuracy|配置文件|下载链接|
|---|---|---|---|---|
|CRNN|Resnet34_vd|81.04%|
[
configs/rec/rec_r34_vd_none_bilstm_ctc.yml
](
../../configs/rec/rec_r34_vd_none_bilstm_ctc.yml
)
|
[
训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/en/rec_r34_vd_none_bilstm_ctc_v2.0_train.tar
)
|
|CRNN|MobileNetV3|77.95%|
[
configs/rec/rec_mv3_none_bilstm_ctc.yml
](
../../configs/rec/rec_mv3_none_bilstm_ctc.yml
)
|
[
训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/en/rec_mv3_none_bilstm_ctc_v2.0_train.tar
)
|
<a
name=
"2"
></a>
## 2. 环境配置
请先参考
[
《运行环境准备》
](
./environment.md
)
配置PaddleOCR运行环境,参考
[
《项目克隆》
](
./clone.md
)
克隆项目代码。
<a
name=
"3"
></a>
## 3. 模型训练、评估、预测
请参考
[
文本识别训练教程
](
./recognition.md
)
。PaddleOCR对代码进行了模块化,训练不同的识别模型只需要
**更换配置文件**
即可。
-
训练
在完成数据准备后,便可以启动训练,训练命令如下:
```
#单卡训练(训练周期长,不建议)
python3 tools/train.py -c configs/rec/rec_r34_vd_none_bilstm_ctc.yml
#多卡训练,通过--gpus参数指定卡号
python3 -m paddle.distributed.launch --gpus '0,1,2,3' tools/train.py -c rec_r34_vd_none_bilstm_ctc.yml
```
-
评估
```
# GPU 评估, Global.pretrained_model 为待测权重
python3 -m paddle.distributed.launch --gpus '0' tools/eval.py -c configs/rec/rec_r34_vd_none_bilstm_ctc.yml -o Global.pretrained_model={path/to/weights}/best_accuracy
```
-
预测:
```
# 预测使用的配置文件必须与训练一致
python3 tools/infer_rec.py -c configs/rec/rec_r34_vd_none_bilstm_ctc.yml -o Global.pretrained_model={path/to/weights}/best_accuracy Global.infer_img=doc/imgs_words/en/word_1.png
```
<a
name=
"4"
></a>
## 4. 推理部署
<a
name=
"4-1"
></a>
### 4.1 Python推理
首先将 CRNN 文本识别训练过程中保存的模型,转换成inference model。以基于Resnet34_vd骨干网络,使用MJSynth和SynthText两个英文文本识别合成数据集训练的
[
模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/en/rec_r34_vd_none_bilstm_ctc_v2.0_train.tar
)
为例,可以使用如下命令进行转换:
```
shell
python3 tools/export_model.py
-c
configs/rec/rec_r34_vd_none_bilstm_ctc.yml
-o
Global.pretrained_model
=
./rec_r34_vd_none_bilstm_ctc_v2.0_train/best_accuracy Global.save_inference_dir
=
./inference/rec_crnn
```
CRNN 文本识别模型推理,可以执行如下命令:
```
shell
python3 tools/infer/predict_rec.py
--image_dir
=
"./doc/imgs_words_en/word_336.png"
--rec_model_dir
=
"./inference/rec_crnn/"
--rec_image_shape
=
"3, 32, 100"
--rec_char_dict_path
=
"./ppocr/utils/ic15_dict.txt"
```

执行命令后,上面图像的识别结果如下:
```
bash
Predicts of ./doc/imgs_words_en/word_336.png:
(
'super'
, 0.9999073
)
```
**注意**
:由于上述模型是参考
[
DTRB
](
https://arxiv.org/abs/1904.01906
)
文本识别训练和评估流程,与超轻量级中文识别模型训练有两方面不同:
-
训练时采用的图像分辨率不同,训练上述模型采用的图像分辨率是[3,32,100],而中文模型训练时,为了保证长文本的识别效果,训练时采用的图像分辨率是[3, 32, 320]。预测推理程序默认的形状参数是训练中文采用的图像分辨率,即[3, 32, 320]。因此,这里推理上述英文模型时,需要通过参数rec_image_shape设置识别图像的形状。
-
字符列表,DTRB论文中实验只是针对26个小写英文本母和10个数字进行实验,总共36个字符。所有大小字符都转成了小写字符,不在上面列表的字符都忽略,认为是空格。因此这里没有输入字符字典,而是通过如下命令生成字典.因此在推理时需要设置参数rec_char_dict_path,指定为英文字典"./ppocr/utils/ic15_dict.txt"。
```
self.character_str = "0123456789abcdefghijklmnopqrstuvwxyz"
dict_character = list(self.character_str)
```
<a
name=
"4-2"
></a>
### 4.2 C++推理
准备好推理模型后,参考
[
cpp infer
](
../../deploy/cpp_infer/
)
教程进行操作即可。
<a
name=
"4-3"
></a>
### 4.3 Serving服务化部署
准备好推理模型后,参考
[
pdserving
](
../../deploy/pdserving/
)
教程进行Serving服务化部署,包括Python Serving和C++ Serving两种模式。
<a
name=
"4-4"
></a>
### 4.4 更多推理部署
CRNN模型还支持以下推理部署方式:
-
Paddle2ONNX推理:准备好推理模型后,参考
[
paddle2onnx
](
../../deploy/paddle2onnx/
)
教程操作。
<a
name=
"5"
></a>
## 5. FAQ
## 引用
```
bibtex
@ARTICLE
{
7801919
,
author
=
{Shi, Baoguang and Bai, Xiang and Yao, Cong}
,
journal
=
{IEEE Transactions on Pattern Analysis and Machine Intelligence}
,
title
=
{An End-to-End Trainable Neural Network for Image-Based Sequence Recognition and Its Application to Scene Text Recognition}
,
year
=
{2017}
,
volume
=
{39}
,
number
=
{11}
,
pages
=
{2298-2304}
,
doi
=
{10.1109/TPAMI.2016.2646371}
}
```
doc/doc_ch/algorithm_rec_nrtr.md
0 → 100644
View file @
80aced81
# 场景文本识别算法-NRTR
-
[
1. 算法简介
](
#1
)
-
[
2. 环境配置
](
#2
)
-
[
3. 模型训练、评估、预测
](
#3
)
-
[
3.1 训练
](
#3-1
)
-
[
3.2 评估
](
#3-2
)
-
[
3.3 预测
](
#3-3
)
-
[
4. 推理部署
](
#4
)
-
[
4.1 Python推理
](
#4-1
)
-
[
4.2 C++推理
](
#4-2
)
-
[
4.3 Serving服务化部署
](
#4-3
)
-
[
4.4 更多推理部署
](
#4-4
)
-
[
5. FAQ
](
#5
)
<a
name=
"1"
></a>
## 1. 算法简介
论文信息:
> [NRTR: A No-Recurrence Sequence-to-Sequence Model For Scene Text Recognition](https://arxiv.org/abs/1806.00926)
> Fenfen Sheng and Zhineng Chen and Bo Xu
> ICDAR, 2019
<a
name=
"model"
></a>
`NRTR`
使用MJSynth和SynthText两个文字识别数据集训练,在IIIT, SVT, IC03, IC13, IC15, SVTP, CUTE数据集上进行评估,算法复现效果如下:
|模型|骨干网络|配置文件|Acc|下载链接|
| --- | --- | --- | --- | --- |
|NRTR|MTB|
[
rec_mtb_nrtr.yml
](
../../configs/rec/rec_mtb_nrtr.yml
)
|84.21%|
[
训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/en/rec_mtb_nrtr_train.tar
)
|
<a
name=
"2"
></a>
## 2. 环境配置
请先参考
[
《运行环境准备》
](
./environment.md
)
配置PaddleOCR运行环境,参考
[
《项目克隆》
](
./clone.md
)
克隆项目代码。
<a
name=
"3"
></a>
## 3. 模型训练、评估、预测
<a
name=
"3-1"
></a>
### 3.1 模型训练
请参考
[
文本识别训练教程
](
./recognition.md
)
。PaddleOCR对代码进行了模块化,训练
`NRTR`
识别模型时需要
**更换配置文件**
为
`NRTR`
的
[
配置文件
](
../../configs/rec/rec_mtb_nrtr.yml
)
。
#### 启动训练
具体地,在完成数据准备后,便可以启动训练,训练命令如下:
```
shell
#单卡训练(训练周期长,不建议)
python3 tools/train.py
-c
configs/rec/rec_mtb_nrtr.yml
#多卡训练,通过--gpus参数指定卡号
python3
-m
paddle.distributed.launch
--gpus
'0,1,2,3'
tools/train.py
-c
configs/rec/rec_mtb_nrtr.yml
```
<a
name=
"3-2"
></a>
### 3.2 评估
可下载已训练完成的
[
模型文件
](
#model
)
,使用如下命令进行评估:
```
shell
# 注意将pretrained_model的路径设置为本地路径。
python3
-m
paddle.distributed.launch
--gpus
'0'
tools/eval.py
-c
configs/rec/rec_mtb_nrtr.yml
-o
Global.pretrained_model
=
./rec_mtb_nrtr_train/best_accuracy
```
<a
name=
"3-3"
></a>
### 3.3 预测
使用如下命令进行单张图片预测:
```
shell
# 注意将pretrained_model的路径设置为本地路径。
python3 tools/infer_rec.py
-c
configs/rec/rec_mtb_nrtr.yml
-o
Global.infer_img
=
'./doc/imgs_words_en/word_10.png'
Global.pretrained_model
=
./rec_mtb_nrtr_train/best_accuracy
# 预测文件夹下所有图像时,可修改infer_img为文件夹,如 Global.infer_img='./doc/imgs_words_en/'。
```
<a
name=
"4"
></a>
## 4. 推理部署
<a
name=
"4-1"
></a>
### 4.1 Python推理
首先将训练得到best模型,转换成inference model。这里以训练完成的模型为例(
[
模型下载地址
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/en/rec_mtb_nrtr_train.tar
)
),可以使用如下命令进行转换:
```
shell
# 注意将pretrained_model的路径设置为本地路径。
python3 tools/export_model.py
-c
configs/rec/rec_mtb_nrtr.yml
-o
Global.pretrained_model
=
./rec_mtb_nrtr_train/best_accuracy Global.save_inference_dir
=
./inference/rec_mtb_nrtr/
```
**注意:**
-
如果您是在自己的数据集上训练的模型,并且调整了字典文件,请注意修改配置文件中的
`character_dict_path`
是否是所需要的字典文件。
-
如果您修改了训练时的输入大小,请修改
`tools/export_model.py`
文件中的对应NRTR的
`infer_shape`
。
转换成功后,在目录下有三个文件:
```
/inference/rec_mtb_nrtr/
├── inference.pdiparams # 识别inference模型的参数文件
├── inference.pdiparams.info # 识别inference模型的参数信息,可忽略
└── inference.pdmodel # 识别inference模型的program文件
```
执行如下命令进行模型推理:
```
shell
python3 tools/infer/predict_rec.py
--image_dir
=
'./doc/imgs_words_en/word_10.png'
--rec_model_dir
=
'./inference/rec_mtb_nrtr/'
--rec_algorithm
=
'NRTR'
--rec_image_shape
=
'1,32,100'
--rec_char_dict_path
=
'./ppocr/utils/EN_symbol_dict.txt'
# 预测文件夹下所有图像时,可修改image_dir为文件夹,如 --image_dir='./doc/imgs_words_en/'。
```

执行命令后,上面图像的预测结果(识别的文本和得分)会打印到屏幕上,示例如下:
结果如下:
```
shell
Predicts of ./doc/imgs_words_en/word_10.png:
(
'pain'
, 0.9265879392623901
)
```
**注意**
:
-
训练上述模型采用的图像分辨率是[1,32,100],需要通过参数
`rec_image_shape`
设置为您训练时的识别图像形状。
-
在推理时需要设置参数
`rec_char_dict_path`
指定字典,如果您修改了字典,请修改该参数为您的字典文件。
-
如果您修改了预处理方法,需修改
`tools/infer/predict_rec.py`
中NRTR的预处理为您的预处理方法。
<a
name=
"4-2"
></a>
### 4.2 C++推理部署
由于C++预处理后处理还未支持NRTR,所以暂未支持
<a
name=
"4-3"
></a>
### 4.3 Serving服务化部署
暂不支持
<a
name=
"4-4"
></a>
### 4.4 更多推理部署
暂不支持
<a
name=
"5"
></a>
## 5. FAQ
1.
`NRTR`
论文中使用Beam搜索进行解码字符,但是速度较慢,这里默认未使用Beam搜索,以贪婪搜索进行解码字符。
## 引用
```
bibtex
@article
{
Sheng2019NRTR
,
title
=
{NRTR: A No-Recurrence Sequence-to-Sequence Model For Scene Text Recognition}
,
author
=
{Fenfen Sheng and Zhineng Chen andBo Xu}
,
booktitle
=
{ICDAR}
,
year
=
{2019}
,
url
=
{http://arxiv.org/abs/1806.00926}
,
pages
=
{781-786}
}
```
doc/doc_ch/algorithm_rec_rare.md
0 → 100644
View file @
80aced81
# RARE
-
[
1. 算法简介
](
#1
)
-
[
2. 环境配置
](
#2
)
-
[
3. 模型训练、评估、预测
](
#3
)
-
[
3.1 训练
](
#3-1
)
-
[
3.2 评估
](
#3-2
)
-
[
3.3 预测
](
#3-3
)
-
[
4. 推理部署
](
#4
)
-
[
4.1 Python推理
](
#4-1
)
-
[
4.2 C++推理
](
#4-2
)
-
[
4.3 Serving服务化部署
](
#4-3
)
-
[
4.4 更多推理部署
](
#4-4
)
-
[
5. FAQ
](
#5
)
<a
name=
"1"
></a>
## 1. 算法简介
论文信息:
> [Robust Scene Text Recognition with Automatic Rectification](https://arxiv.org/abs/1603.03915v2)
> Baoguang Shi, Xinggang Wang, Pengyuan Lyu, Cong Yao, Xiang Bai∗
> CVPR, 2016
使用MJSynth和SynthText两个文字识别数据集训练,在IIIT, SVT, IC03, IC13, IC15, SVTP, CUTE数据集上进行评估,算法复现效果如下:
|模型|骨干网络|配置文件|Avg Accuracy|下载链接|
| --- | --- | --- | --- | --- |
|RARE|Resnet34_vd|
[
configs/rec/rec_r34_vd_tps_bilstm_att.yml
](
../../configs/rec/rec_r34_vd_tps_bilstm_att.yml
)
|83.6%|
[
训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/en/rec_r34_vd_tps_bilstm_att_v2.0_train.tar
)
|
|RARE|MobileNetV3|
[
configs/rec/rec_mv3_tps_bilstm_att.yml
](
../../configs/rec/rec_mv3_tps_bilstm_att.yml
)
|82.5%|
[
训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/en/rec_mv3_tps_bilstm_att_v2.0_train.tar
)
|
<a
name=
"2"
></a>
## 2. 环境配置
请先参考
[
《运行环境准备》
](
./environment.md
)
配置PaddleOCR运行环境,参考
[
《项目克隆》
](
./clone.md
)
克隆项目代码。
<a
name=
"3"
></a>
## 3. 模型训练、评估、预测
请参考
[
文本识别训练教程
](
./recognition.md
)
。PaddleOCR对代码进行了模块化,训练不同的识别模型只需要
**更换配置文件**
即可。以基于Resnet34_vd骨干网络为例:
<a
name=
"3-1"
></a>
### 3.1 训练
```
#单卡训练(训练周期长,不建议)
python3 tools/train.py -c configs/rec/rec_r34_vd_tps_bilstm_att.yml
#多卡训练,通过--gpus参数指定卡号
python3 -m paddle.distributed.launch --gpus '0,1,2,3' tools/train.py -c configs/rec/rec_r34_vd_tps_bilstm_att.yml
```
<a
name=
"3-2"
></a>
### 3.2 评估
```
# GPU评估, Global.pretrained_model为待评估模型
python3 -m paddle.distributed.launch --gpus '0' tools/eval.py -c configs/rec/rec_r34_vd_tps_bilstm_att.yml -o Global.pretrained_model={path/to/weights}/best_accuracy
```
<a
name=
"3-3"
></a>
### 3.3 预测
```
python3 tools/infer_rec.py -c configs/rec/rec_r34_vd_tps_bilstm_att.yml -o Global.pretrained_model={path/to/weights}/best_accuracy Global.infer_img=doc/imgs_words/en/word_1.png
```
<a
name=
"4"
></a>
## 4. 推理部署
<a
name=
"4-1"
></a>
### 4.1 Python推理
首先将RARE文本识别训练过程中保存的模型,转换成inference model。以基于Resnet34_vd骨干网络,在MJSynth和SynthText两个文字识别数据集训练得到的模型为例(
[
模型下载地址
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/en/rec_r34_vd_tps_bilstm_att_v2.0_train.tar
)
),可以使用如下命令进行转换:
```
shell
python3 tools/export_model.py
-c
configs/rec/rec_r34_vd_tps_bilstm_att.yml
-o
Global.pretrained_model
=
./rec_r34_vd_tps_bilstm_att_v2.0_train/best_accuracy Global.save_inference_dir
=
./inference/rec_rare
```
RARE文本识别模型推理,可以执行如下命令:
```
shell
python3 tools/infer/predict_rec.py
--image_dir
=
"doc/imgs_words/en/word_1.png"
--rec_model_dir
=
"./inference/rec_rare/"
--rec_image_shape
=
"3, 32, 100"
--rec_char_dict_path
=
"./ppocr/utils/ic15_dict.txt"
```
推理结果如下所示:

```
Predicts of doc/imgs_words/en/word_1.png:('joint ', 0.9999969601631165)
```
<a
name=
"4-2"
></a>
### 4.2 C++推理
暂不支持
<a
name=
"4-3"
></a>
### 4.3 Serving服务化部署
暂不支持
<a
name=
"4-4"
></a>
### 4.4 更多推理部署
RARE模型还支持以下推理部署方式:
-
Paddle2ONNX推理:准备好推理模型后,参考
[
paddle2onnx
](
../../deploy/paddle2onnx/
)
教程操作。
<a
name=
"5"
></a>
## 5. FAQ
## 引用
```
bibtex
@inproceedings
{
2016Robust
,
title
=
{Robust Scene Text Recognition with Automatic Rectification}
,
author
=
{ Shi, B. and Wang, X. and Lyu, P. and Cong, Y. and Xiang, B. }
,
booktitle
=
{2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)}
,
year
=
{2016}
,
}
```
doc/doc_ch/algorithm_rec_rosetta.md
0 → 100644
View file @
80aced81
# Rosetta
-
[
1. 算法简介
](
#1
)
-
[
2. 环境配置
](
#2
)
-
[
3. 模型训练、评估、预测
](
#3
)
-
[
3.1 训练
](
#3-1
)
-
[
3.2 评估
](
#3-2
)
-
[
3.3 预测
](
#3-3
)
-
[
4. 推理部署
](
#4
)
-
[
4.1 Python推理
](
#4-1
)
-
[
4.2 C++推理
](
#4-2
)
-
[
4.3 Serving服务化部署
](
#4-3
)
-
[
4.4 更多推理部署
](
#4-4
)
-
[
5. FAQ
](
#5
)
<a
name=
"1"
></a>
## 1. 算法简介
论文信息:
> [Rosetta: Large Scale System for Text Detection and Recognition in Images](https://arxiv.org/abs/1910.05085)
> Borisyuk F , Gordo A , V Sivakumar
> KDD, 2018
使用MJSynth和SynthText两个文字识别数据集训练,在IIIT, SVT, IC03, IC13, IC15, SVTP, CUTE数据集上进行评估, 算法复现效果如下:
|模型|骨干网络|配置文件|Avg Accuracy|下载链接|
| --- | --- | --- | --- | --- |
|Rosetta|Resnet34_vd|
[
configs/rec/rec_r34_vd_none_none_ctc.yml
](
../../configs/rec/rec_r34_vd_none_none_ctc.yml
)
|79.11%|
[
训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/en/rec_r34_vd_none_none_ctc_v2.0_train.tar
)
|
|Rosetta|MobileNetV3|
[
configs/rec/rec_mv3_none_none_ctc.yml
](
../../configs/rec/rec_mv3_none_none_ctc.yml
)
|75.80%|
[
训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/en/rec_mv3_none_none_ctc_v2.0_train.tar
)
|
<a
name=
"2"
></a>
## 2. 环境配置
请先参考
[
《运行环境准备》
](
./environment.md
)
配置PaddleOCR运行环境,参考
[
《项目克隆》
](
./clone.md
)
克隆项目代码。
<a
name=
"3"
></a>
## 3. 模型训练、评估、预测
请参考
[
文本识别训练教程
](
./recognition.md
)
。PaddleOCR对代码进行了模块化,训练不同的识别模型只需要
**更换配置文件**
即可。 以基于Resnet34_vd骨干网络为例:
<a
name=
"3-1"
></a>
### 3.1 训练
```
#单卡训练(训练周期长,不建议)
python3 tools/train.py -c configs/rec/rec_r34_vd_none_none_ctc.yml
#多卡训练,通过--gpus参数指定卡号
python3 -m paddle.distributed.launch --gpus '0,1,2,3' tools/train.py -c configs/rec/rec_r34_vd_none_none_ctc.yml
```
<a
name=
"3-2"
></a>
### 3.2 评估
```
# GPU评估, Global.pretrained_model为待评估模型
python3 -m paddle.distributed.launch --gpus '0' tools/eval.py -c configs/rec/rec_r34_vd_none_none_ctc.yml -o Global.pretrained_model={path/to/weights}/best_accuracy
```
<a
name=
"3-3"
></a>
### 3.3 预测
```
python3 tools/infer_rec.py -c configs/rec/rec_r34_vd_none_none_ctc.yml -o Global.pretrained_model={path/to/weights}/best_accuracy Global.infer_img=doc/imgs_words/en/word_1.png
```
<a
name=
"4"
></a>
## 4. 推理部署
<a
name=
"4-1"
></a>
### 4.1 Python推理
首先将Rosetta文本识别训练过程中保存的模型,转换成inference model。以基于Resnet34_vd骨干网络,在MJSynth和SynthText两个文字识别数据集训练得到的模型为例(
[
模型下载地址
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/en/rec_r34_vd_none_none_ctc_v2.0_train.tar
)
),可以使用如下命令进行转换:
```
shell
python3 tools/export_model.py
-c
configs/rec/rec_r34_vd_none_none_ctc.yml
-o
Global.pretrained_model
=
./rec_r34_vd_none_none_ctc_v2.0_train/best_accuracy Global.save_inference_dir
=
./inference/rec_rosetta
```
Rosetta文本识别模型推理,可以执行如下命令:
```
shell
python3 tools/infer/predict_rec.py
--image_dir
=
"doc/imgs_words/en/word_1.png"
--rec_model_dir
=
"./inference/rec_rosetta/"
--rec_image_shape
=
"3, 32, 100"
--rec_char_dict_path
=
"./ppocr/utils/ic15_dict.txt"
```
推理结果如下所示:

```
Predicts of doc/imgs_words/en/word_1.png:('joint', 0.9999982714653015)
```
<a
name=
"4-2"
></a>
### 4.2 C++推理
暂不支持
<a
name=
"4-3"
></a>
### 4.3 Serving服务化部署
暂不支持
<a
name=
"4-4"
></a>
### 4.4 更多推理部署
Rosetta模型还支持以下推理部署方式:
-
Paddle2ONNX推理:准备好推理模型后,参考
[
paddle2onnx
](
../../deploy/paddle2onnx/
)
教程操作。
<a
name=
"5"
></a>
## 5. FAQ
## 引用
```
bibtex
@inproceedings
{
2018Rosetta
,
title
=
{Rosetta: Large Scale System for Text Detection and Recognition in Images}
,
author
=
{ Borisyuk, Fedor and Gordo, Albert and Sivakumar, Viswanath }
,
booktitle
=
{the 24th ACM SIGKDD International Conference}
,
year
=
{2018}
,
}
```
doc/doc_ch/algorithm_rec_sar.md
View file @
80aced81
...
...
@@ -24,7 +24,7 @@
使用MJSynth和SynthText两个文字识别数据集训练,在IIIT, SVT, IC03, IC13, IC15, SVTP, CUTE数据集上进行评估,算法复现效果如下:
|模型|骨干网络|配置文件|Acc|下载链接|
| --- | --- | --- | --- | --- |
--- | --- |
| --- | --- | --- | --- | --- |
|SAR|ResNet31|
[
rec_r31_sar.yml
](
../../configs/rec/rec_r31_sar.yml
)
|87.20%|
[
训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.1/rec/rec_r31_sar_train.tar
)
|
注:除了使用MJSynth和SynthText两个文字识别数据集外,还加入了
[
SynthAdd
](
https://pan.baidu.com/share/init?surl=uV0LtoNmcxbO-0YA7Ch4dg
)
数据(提取码:627x),和部分真实数据,具体数据细节可以参考论文。
...
...
doc/doc_ch/algorithm_rec_seed.md
0 → 100644
View file @
80aced81
# SEED
-
[
1. 算法简介
](
#1
)
-
[
2. 环境配置
](
#2
)
-
[
3. 模型训练、评估、预测
](
#3
)
-
[
3.1 训练
](
#3-1
)
-
[
3.2 评估
](
#3-2
)
-
[
3.3 预测
](
#3-3
)
-
[
4. 推理部署
](
#4
)
-
[
4.1 Python推理
](
#4-1
)
-
[
4.2 C++推理
](
#4-2
)
-
[
4.3 Serving服务化部署
](
#4-3
)
-
[
4.4 更多推理部署
](
#4-4
)
-
[
5. FAQ
](
#5
)
<a
name=
"1"
></a>
## 1. 算法简介
论文信息:
> [SEED: Semantics Enhanced Encoder-Decoder Framework for Scene Text Recognition](https://arxiv.org/pdf/2005.10977.pdf)
> Qiao, Zhi and Zhou, Yu and Yang, Dongbao and Zhou, Yucan and Wang, Weiping
> CVPR, 2020
参考
[
DTRB
](
https://arxiv.org/abs/1904.01906
)
文字识别训练和评估流程,使用MJSynth和SynthText两个文字识别数据集训练,在IIIT, SVT, IC03, IC13, IC15, SVTP, CUTE数据集上进行评估,算法效果如下:
|模型|骨干网络|Avg Accuracy|配置文件|下载链接|
|---|---|---|---|---|
|SEED|Aster_Resnet| 85.2% |
[
configs/rec/rec_resnet_stn_bilstm_att.yml
](
../../configs/rec/rec_resnet_stn_bilstm_att.yml
)
|
[
训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.1/rec/rec_resnet_stn_bilstm_att.tar
)
|
<a
name=
"2"
></a>
## 2. 环境配置
请先参考
[
《运行环境准备》
](
./environment.md
)
配置PaddleOCR运行环境,参考
[
《项目克隆》
](
./clone.md
)
克隆项目代码。
<a
name=
"3"
></a>
## 3. 模型训练、评估、预测
请参考
[
文本识别训练教程
](
./recognition.md
)
。PaddleOCR对代码进行了模块化,训练不同的识别模型只需要
**更换配置文件**
即可。
-
训练
SEED模型需要额外加载FastText训练好的
[
语言模型
](
https://dl.fbaipublicfiles.com/fasttext/vectors-crawl/cc.en.300.bin.gz
)
,并且安装 fasttext 依赖:
```
python3 -m pip install fasttext==0.9.1
```
然后,在完成数据准备后,便可以启动训练,训练命令如下:
```
#单卡训练(训练周期长,不建议)
python3 tools/train.py -c configs/rec/rec_resnet_stn_bilstm_att.yml
#多卡训练,通过--gpus参数指定卡号
python3 -m paddle.distributed.launch --gpus '0,1,2,3' tools/train.py -c rec_resnet_stn_bilstm_att.yml
```
-
评估
```
# GPU 评估, Global.pretrained_model 为待测权重
python3 -m paddle.distributed.launch --gpus '0' tools/eval.py -c configs/rec/rec_resnet_stn_bilstm_att.yml -o Global.pretrained_model={path/to/weights}/best_accuracy
```
-
预测:
```
# 预测使用的配置文件必须与训练一致
python3 tools/infer_rec.py -c configs/rec/rec_resnet_stn_bilstm_att.yml -o Global.pretrained_model={path/to/weights}/best_accuracy Global.infer_img=doc/imgs_words/en/word_1.png
```
<a
name=
"4"
></a>
## 4. 推理部署
<a
name=
"4-1"
></a>
### 4.1 Python推理
coming soon
<a
name=
"4-2"
></a>
### 4.2 C++推理
coming soon
<a
name=
"4-3"
></a>
### 4.3 Serving服务化部署
coming soon
<a
name=
"4-4"
></a>
### 4.4 更多推理部署
coming soon
<a
name=
"5"
></a>
## 5. FAQ
## 引用
```
bibtex
@inproceedings
{
qiao2020seed
,
title
=
{Seed: Semantics enhanced encoder-decoder framework for scene text recognition}
,
author
=
{Qiao, Zhi and Zhou, Yu and Yang, Dongbao and Zhou, Yucan and Wang, Weiping}
,
booktitle
=
{Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition}
,
pages
=
{13528--13537}
,
year
=
{2020}
}
```
doc/doc_ch/algorithm_rec_srn.md
View file @
80aced81
...
...
@@ -24,7 +24,7 @@
使用MJSynth和SynthText两个文字识别数据集训练,在IIIT, SVT, IC03, IC13, IC15, SVTP, CUTE数据集上进行评估,算法复现效果如下:
|模型|骨干网络|配置文件|Acc|下载链接|
| --- | --- | --- | --- | --- |
--- | --- |
| --- | --- | --- | --- | --- |
|SRN|Resnet50_vd_fpn|
[
rec_r50_fpn_srn.yml
](
../../configs/rec/rec_r50_fpn_srn.yml
)
|86.31%|
[
训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/en/rec_r50_vd_srn_train.tar
)
|
...
...
doc/doc_ch/algorithm_rec_starnet.md
0 → 100644
View file @
80aced81
# STAR-Net
-
[
1. 算法简介
](
#1
)
-
[
2. 环境配置
](
#2
)
-
[
3. 模型训练、评估、预测
](
#3
)
-
[
3.1 训练
](
#3-1
)
-
[
3.2 评估
](
#3-2
)
-
[
3.3 预测
](
#3-3
)
-
[
4. 推理部署
](
#4
)
-
[
4.1 Python推理
](
#4-1
)
-
[
4.2 C++推理
](
#4-2
)
-
[
4.3 Serving服务化部署
](
#4-3
)
-
[
4.4 更多推理部署
](
#4-4
)
-
[
5. FAQ
](
#5
)
<a
name=
"1"
></a>
## 1. 算法简介
论文信息:
> [STAR-Net: a spatial attention residue network for scene text recognition.](http://www.bmva.org/bmvc/2016/papers/paper043/paper043.pdf)
> Wei Liu, Chaofeng Chen, Kwan-Yee K. Wong, Zhizhong Su and Junyu Han.
> BMVC, pages 43.1-43.13, 2016
参考
[
DTRB
](
https://arxiv.org/abs/1904.01906
)
文字识别训练和评估流程,使用MJSynth和SynthText两个文字识别数据集训练,在IIIT, SVT, IC03, IC13, IC15, SVTP, CUTE数据集上进行评估,算法效果如下:
|模型|骨干网络|Avg Accuracy|配置文件|下载链接|
|---|---|---|---|---|
|StarNet|Resnet34_vd|84.44%|
[
configs/rec/rec_r34_vd_tps_bilstm_ctc.yml
](
../../configs/rec/rec_r34_vd_tps_bilstm_ctc.yml
)
|
[
训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/en/rec_r34_vd_tps_bilstm_ctc_v2.0_train.tar
)
|
|StarNet|MobileNetV3|81.42%|
[
configs/rec/rec_mv3_tps_bilstm_ctc.yml
](
../../configs/rec/rec_mv3_tps_bilstm_ctc.yml
)
|
[
训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/en/rec_mv3_tps_bilstm_ctc_v2.0_train.tar
)
|
<a
name=
"2"
></a>
## 2. 环境配置
请先参考
[
《运行环境准备》
](
./environment.md
)
配置PaddleOCR运行环境,参考
[
《项目克隆》
](
./clone.md
)
克隆项目代码。
<a
name=
"3"
></a>
## 3. 模型训练、评估、预测
请参考
[
文本识别训练教程
](
./recognition.md
)
。PaddleOCR对代码进行了模块化,训练不同的识别模型只需要
**更换配置文件**
即可。
-
训练
在完成数据准备后,便可以启动训练,训练命令如下:
```
#单卡训练(训练周期长,不建议)
python3 tools/train.py -c configs/rec/rec_r34_vd_tps_bilstm_ctc.yml
#多卡训练,通过--gpus参数指定卡号
python3 -m paddle.distributed.launch --gpus '0,1,2,3' tools/train.py -c rec_r34_vd_tps_bilstm_ctc.yml
```
-
评估
```
# GPU 评估, Global.pretrained_model 为待测权重
python3 -m paddle.distributed.launch --gpus '0' tools/eval.py -c configs/rec/rec_r34_vd_tps_bilstm_ctc.yml -o Global.pretrained_model={path/to/weights}/best_accuracy
```
-
预测:
```
# 预测使用的配置文件必须与训练一致
python3 tools/infer_rec.py -c configs/rec/rec_r34_vd_tps_bilstm_ctc.yml -o Global.pretrained_model={path/to/weights}/best_accuracy Global.infer_img=doc/imgs_words/en/word_1.png
```
<a
name=
"4"
></a>
## 4. 推理部署
<a
name=
"4-1"
></a>
### 4.1 Python推理
首先将 STAR-Net 文本识别训练过程中保存的模型,转换成inference model。以基于Resnet34_vd骨干网络,使用MJSynth和SynthText两个英文文本识别合成数据集训练的
[
模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/en/rec_r34_vd_none_bilstm_ctc_v2.0_train.tar
)
为例,可以使用如下命令进行转换:
```
shell
python3 tools/export_model.py
-c
configs/rec/rec_r34_vd_tps_bilstm_ctc.yml
-o
Global.pretrained_model
=
./rec_r34_vd_tps_bilstm_ctc_v2.0_train/best_accuracy Global.save_inference_dir
=
./inference/rec_starnet
```
STAR-Net 文本识别模型推理,可以执行如下命令:
```
shell
python3 tools/infer/predict_rec.py
--image_dir
=
"./doc/imgs_words_en/word_336.png"
--rec_model_dir
=
"./inference/rec_starnet/"
--rec_image_shape
=
"3, 32, 100"
--rec_char_dict_path
=
"./ppocr/utils/ic15_dict.txt"
```

执行命令后,上面图像的识别结果如下:
```
bash
Predicts of ./doc/imgs_words_en/word_336.png:
(
'super'
, 0.9999073
)
```
**注意**
:由于上述模型是参考
[
DTRB
](
https://arxiv.org/abs/1904.01906
)
文本识别训练和评估流程,与超轻量级中文识别模型训练有两方面不同:
-
训练时采用的图像分辨率不同,训练上述模型采用的图像分辨率是[3,32,100],而中文模型训练时,为了保证长文本的识别效果,训练时采用的图像分辨率是[3, 32, 320]。预测推理程序默认的形状参数是训练中文采用的图像分辨率,即[3, 32, 320]。因此,这里推理上述英文模型时,需要通过参数rec_image_shape设置识别图像的形状。
-
字符列表,DTRB论文中实验只是针对26个小写英文本母和10个数字进行实验,总共36个字符。所有大小字符都转成了小写字符,不在上面列表的字符都忽略,认为是空格。因此这里没有输入字符字典,而是通过如下命令生成字典.因此在推理时需要设置参数rec_char_dict_path,指定为英文字典"./ppocr/utils/ic15_dict.txt"。
```
self.character_str = "0123456789abcdefghijklmnopqrstuvwxyz"
dict_character = list(self.character_str)
```
<a
name=
"4-2"
></a>
### 4.2 C++推理
准备好推理模型后,参考
[
cpp infer
](
../../deploy/cpp_infer/
)
教程进行操作即可。
<a
name=
"4-3"
></a>
### 4.3 Serving服务化部署
准备好推理模型后,参考
[
pdserving
](
../../deploy/pdserving/
)
教程进行Serving服务化部署,包括Python Serving和C++ Serving两种模式。
<a
name=
"4-4"
></a>
### 4.4 更多推理部署
STAR-Net模型还支持以下推理部署方式:
-
Paddle2ONNX推理:准备好推理模型后,参考
[
paddle2onnx
](
../../deploy/paddle2onnx/
)
教程操作。
<a
name=
"5"
></a>
## 5. FAQ
## 引用
```
bibtex
@inproceedings
{
liu2016star
,
title
=
{STAR-Net: a spatial attention residue network for scene text recognition.}
,
author
=
{Liu, Wei and Chen, Chaofeng and Wong, Kwan-Yee K and Su, Zhizhong and Han, Junyu}
,
booktitle
=
{BMVC}
,
volume
=
{2}
,
pages
=
{7}
,
year
=
{2016}
}
```
doc/doc_ch/algorithm_rec_svtr.md
0 → 100644
View file @
80aced81
# 场景文本识别算法-SVTR
-
[
1. 算法简介
](
#1
)
-
[
2. 环境配置
](
#2
)
-
[
3. 模型训练、评估、预测
](
#3
)
-
[
3.1 训练
](
#3-1
)
-
[
3.2 评估
](
#3-2
)
-
[
3.3 预测
](
#3-3
)
-
[
4. 推理部署
](
#4
)
-
[
4.1 Python推理
](
#4-1
)
-
[
4.2 C++推理
](
#4-2
)
-
[
4.3 Serving服务化部署
](
#4-3
)
-
[
4.4 更多推理部署
](
#4-4
)
-
[
5. FAQ
](
#5
)
<a
name=
"1"
></a>
## 1. 算法简介
论文信息:
> [SVTR: Scene Text Recognition with a Single Visual Model](https://arxiv.org/abs/2205.00159)
> Yongkun Du and Zhineng Chen and Caiyan Jia Xiaoting Yin and Tianlun Zheng and Chenxia Li and Yuning Du and Yu-Gang Jiang
> IJCAI, 2022
场景文本识别旨在将自然图像中的文本转录为数字字符序列,从而传达对场景理解至关重要的高级语义。这项任务由于文本变形、字体、遮挡、杂乱背景等方面的变化具有一定的挑战性。先前的方法为提高识别精度做出了许多工作。然而文本识别器除了准确度外,还因为实际需求需要考虑推理速度等因素。
### SVTR算法简介
主流的场景文本识别模型通常包含两个模块:用于特征提取的视觉模型和用于文本转录的序列模型。这种架构虽然准确,但复杂且效率较低,限制了在实际场景中的应用。SVTR提出了一种用于场景文本识别的单视觉模型,该模型在patch-wise image tokenization框架内,完全摒弃了序列建模,在精度具有竞争力的前提下,模型参数量更少,速度更快,主要有以下几点贡献:
1.
首次发现单视觉模型可以达到与视觉语言模型相媲美甚至更高的准确率,并且其具有效率高和适应多语言的优点,在实际应用中很有前景。
2.
SVTR从字符组件的角度出发,逐渐的合并字符组件,自下而上地完成字符的识别。
3.
SVTR引入了局部和全局Mixing,分别用于提取字符组件特征和字符间依赖关系,与多尺度的特征一起,形成多粒度特征描述。
<a
name=
"model"
></a>
SVTR在场景文本识别公开数据集上的精度(%)和模型文件如下:
*
中文数据集来自于
[
Chinese Benckmark
](
https://arxiv.org/abs/2112.15093
)
,SVTR的中文训练评估策略遵循该论文。
| 模型 |IC13
<br/>
857 | SVT |IIIT5k
<br/>
3000 |IC15
<br/>
1811| SVTP |CUTE80 | Avg_6 |IC15
<br/>
2077 |IC13
<br/>
1015 |IC03
<br/>
867|IC03
<br/>
860|Avg_10 | Chinese
<br/>
scene_test| 下载链接 |
|:----------:|:------:|:-----:|:---------:|:------:|:-----:|:-----:|:-----:|:-------:|:-------:|:-----:|:-----:|:---------------------------------------------:|:-----:|:-----:|
| SVTR Tiny | 96.85 | 91.34 | 94.53 | 83.99 | 85.43 | 89.24 | 90.87 | 80.55 | 95.37 | 95.27 | 95.70 | 90.13 | 67.90 |
[
英文
](
https://paddleocr.bj.bcebos.com/PP-OCRv3/chinese/rec_svtr_tiny_none_ctc_en_train.tar
)
/
[
中文
](
https://paddleocr.bj.bcebos.com/PP-OCRv3/chinese/rec_svtr_tiny_none_ctc_ch_train.tar
)
|
| SVTR Small | 95.92 | 93.04 | 95.03 | 84.70 | 87.91 | 92.01 | 91.63 | 82.72 | 94.88 | 96.08 | 96.28 | 91.02 | 69.00 |
[
英文
](
https://paddleocr.bj.bcebos.com/PP-OCRv3/chinese/rec_svtr_small_none_ctc_en_train.tar
)
/
[
中文
](
https://paddleocr.bj.bcebos.com/PP-OCRv3/chinese/rec_svtr_small_none_ctc_ch_train.tar
)
|
| SVTR Base | 97.08 | 91.50 | 96.03 | 85.20 | 89.92 | 91.67 | 92.33 | 83.73 | 95.66 | 95.62 | 95.81 | 91.61 | 71.40 |
[
英文
](
https://paddleocr.bj.bcebos.com/PP-OCRv3/chinese/rec_svtr_base_none_ctc_en_train.tar
)
/ - |
| SVTR Large | 97.20 | 91.65 | 96.30 | 86.58 | 88.37 | 95.14 | 92.82 | 84.54 | 96.35 | 96.54 | 96.74 | 92.24 | 72.10 |
[
英文
](
https://paddleocr.bj.bcebos.com/PP-OCRv3/chinese/rec_svtr_large_none_ctc_en_train.tar
)
/
[
中文
](
https://paddleocr.bj.bcebos.com/PP-OCRv3/chinese/rec_svtr_large_none_ctc_ch_train.tar
)
|
<a
name=
"2"
></a>
## 2. 环境配置
请先参考
[
《运行环境准备》
](
./environment.md
)
配置PaddleOCR运行环境,参考
[
《项目克隆》
](
./clone.md
)
克隆项目代码。
<a
name=
"3"
></a>
## 3. 模型训练、评估、预测
<a
name=
"3-1"
></a>
### 3.1 模型训练
#### 数据集准备
[
英文数据集下载
](
https://github.com/clovaai/deep-text-recognition-benchmark#download-lmdb-dataset-for-traininig-and-evaluation-from-here
)
[
中文数据集下载
](
https://github.com/fudanvi/benchmarking-chinese-text-recognition#download
)
#### 启动训练
请参考
[
文本识别训练教程
](
./recognition.md
)
。PaddleOCR对代码进行了模块化,训练
`SVTR`
识别模型时需要
**更换配置文件**
为
`SVTR`
的
[
配置文件
](
../../configs/rec/rec_svtrnet.yml
)
。
具体地,在完成数据准备后,便可以启动训练,训练命令如下:
```
shell
#单卡训练(训练周期长,不建议)
python3 tools/train.py
-c
configs/rec/rec_svtrnet.yml
#多卡训练,通过--gpus参数指定卡号
python3
-m
paddle.distributed.launch
--gpus
'0,1,2,3'
tools/train.py
-c
configs/rec/rec_svtrnet.yml
```
<a
name=
"3-2"
></a>
### 3.2 评估
可下载
`SVTR`
提供的模型文件和配置文件:
[
下载地址
](
https://paddleocr.bj.bcebos.com/PP-OCRv3/chinese/rec_svtr_tiny_none_ctc_en_train.tar
)
,以
`SVTR-T`
为例,使用如下命令进行评估:
```
shell
# 下载包含SVTR-T的模型文件和配置文件的tar压缩包并解压
wget https://paddleocr.bj.bcebos.com/PP-OCRv3/chinese/rec_svtr_tiny_none_ctc_en_train.tar
&&
tar
xf rec_svtr_tiny_none_ctc_en_train.tar
# 注意将pretrained_model的路径设置为本地路径。
python3
-m
paddle.distributed.launch
--gpus
'0'
tools/eval.py
-c
./rec_svtr_tiny_none_ctc_en_train/rec_svtr_tiny_6local_6global_stn_en.yml
-o
Global.pretrained_model
=
./rec_svtr_tiny_none_ctc_en_train/best_accuracy
```
<a
name=
"3-3"
></a>
### 3.3 预测
使用如下命令进行单张图片预测:
```
shell
# 注意将pretrained_model的路径设置为本地路径。
python3 tools/infer_rec.py
-c
./rec_svtr_tiny_none_ctc_en_train/rec_svtr_tiny_6local_6global_stn_en.yml
-o
Global.infer_img
=
'./doc/imgs_words_en/word_10.png'
Global.pretrained_model
=
./rec_svtr_tiny_none_ctc_en_train/best_accuracy
# 预测文件夹下所有图像时,可修改infer_img为文件夹,如 Global.infer_img='./doc/imgs_words_en/'。
```
<a
name=
"4"
></a>
## 4. 推理部署
<a
name=
"4-1"
></a>
### 4.1 Python推理
首先将训练得到best模型,转换成inference model。下面以基于
`SVTR-T`
,在英文数据集训练的模型为例(
[
模型和配置文件下载地址
](
https://paddleocr.bj.bcebos.com/PP-OCRv3/chinese/rec_svtr_tiny_none_ctc_en_train.tar
)
),可以使用如下命令进行转换:
```
shell
# 注意将pretrained_model的路径设置为本地路径。
python3 tools/export_model.py
-c
./rec_svtr_tiny_none_ctc_en_train/rec_svtr_tiny_6local_6global_stn_en.yml
-o
Global.pretrained_model
=
./rec_svtr_tiny_none_ctc_en_train/best_accuracy Global.save_inference_dir
=
./inference/rec_svtr_tiny_stn_en
```
**注意:**
-
如果您是在自己的数据集上训练的模型,并且调整了字典文件,请注意修改配置文件中的
`character_dict_path`
是否为所正确的字典文件。
-
如果您修改了训练时的输入大小,请修改
`tools/export_model.py`
文件中的对应SVTR的
`infer_shape`
。
转换成功后,在目录下有三个文件:
```
/inference/rec_svtr_tiny_stn_en/
├── inference.pdiparams # 识别inference模型的参数文件
├── inference.pdiparams.info # 识别inference模型的参数信息,可忽略
└── inference.pdmodel # 识别inference模型的program文件
```
执行如下命令进行模型推理:
```
shell
python3 tools/infer/predict_rec.py
--image_dir
=
'./doc/imgs_words_en/word_10.png'
--rec_model_dir
=
'./inference/rec_svtr_tiny_stn_en/'
--rec_algorithm
=
'SVTR'
--rec_image_shape
=
'3,64,256'
--rec_char_dict_path
=
'./ppocr/utils/ic15_dict.txt'
# 预测文件夹下所有图像时,可修改image_dir为文件夹,如 --image_dir='./doc/imgs_words_en/'。
```

执行命令后,上面图像的预测结果(识别的文本和得分)会打印到屏幕上,示例如下:
结果如下:
```
shell
Predicts of ./doc/imgs_words_en/word_10.png:
(
'pain'
, 0.9999998807907104
)
```
**注意**
:
-
如果您调整了训练时的输入分辨率,需要通过参数
`rec_image_shape`
设置为您需要的识别图像形状。
-
在推理时需要设置参数
`rec_char_dict_path`
指定字典,如果您修改了字典,请修改该参数为您的字典文件。
-
如果您修改了预处理方法,需修改
`tools/infer/predict_rec.py`
中SVTR的预处理为您的预处理方法。
<a
name=
"4-2"
></a>
### 4.2 C++推理部署
由于C++预处理后处理还未支持SVTR,所以暂未支持
<a
name=
"4-3"
></a>
### 4.3 Serving服务化部署
暂不支持
<a
name=
"4-4"
></a>
### 4.4 更多推理部署
暂不支持
<a
name=
"5"
></a>
## 5. FAQ
1.
由于
`SVTR`
使用的算子大多为矩阵相乘,在GPU环境下,速度具有优势,但在CPU开启mkldnn加速环境下,
`SVTR`
相比于被优化的卷积网络没有优势。
## 引用
```
bibtex
@article
{
Du2022SVTR
,
title
=
{SVTR: Scene Text Recognition with a Single Visual Model}
,
author
=
{Du, Yongkun and Chen, Zhineng and Jia, Caiyan and Yin, Xiaoting and Zheng, Tianlun and Li, Chenxia and Du, Yuning and Jiang, Yu-Gang}
,
booktitle
=
{IJCAI}
,
year
=
{2022}
,
url
=
{https://arxiv.org/abs/2205.00159}
}
```
doc/doc_ch/benchmark.md
View file @
80aced81
...
...
@@ -13,7 +13,7 @@
说明:
-
检测输入图像的
的
长边尺寸是960。
-
检测输入图像的长边尺寸是960。
-
评估耗时阶段为图像预测耗时,不包括图像的预处理和后处理。
-
`Intel至强6148`
为服务器端CPU型号,测试中使用Intel MKL-DNN 加速。
-
`骁龙855`
为移动端处理平台型号。
...
...
doc/doc_ch/config.md
View file @
80aced81
...
...
@@ -94,7 +94,7 @@
| name | 网络loss类名 | CTCLoss | 目前支持
`CTCLoss`
,
`DBLoss`
,
`ClsLoss`
|
| balance_loss | DBLossloss中是否对正负样本数量进行均衡(使用OHEM) | True |
\
|
| ohem_ratio | DBLossloss中的OHEM的负正样本比例 | 3 |
\
|
| main_loss_type | DBLossloss中shrink_map所采用的
的
loss | DiceLoss | 支持
`DiceLoss`
,
`BCELoss`
|
| main_loss_type | DBLossloss中shrink_map所采用的loss | DiceLoss | 支持
`DiceLoss`
,
`BCELoss`
|
| alpha | DBLossloss中shrink_map_loss的系数 | 5 |
\
|
| beta | DBLossloss中threshold_map_loss的系数 | 10 |
\
|
...
...
doc/doc_ch/dataset/docvqa_datasets.md
View file @
80aced81
## DocVQA数据集
这里整理了常见的DocVQA数据集,持续更新中,欢迎各位小伙伴贡献数据集~
-
[
FUNSD数据集
](
#funsd
)
-
[
XFUND数据集
](
#xfund
)
<a
name=
"funsd"
></a>
#### 1、FUNSD数据集
-
**数据来源**
:https://guillaumejaume.github.io/FUNSD/
-
**数据简介**
:FUNSD数据集是一个用于表单理解的数据集,它包含199张真实的、完全标注的扫描版图片,类型包括市场报告、广告以及学术报告等,并分为149张训练集以及50张测试集。FUNSD数据集适用于多种类型的DocVQA任务,如字段级实体分类、字段级实体连接等。部分图像以及标注框可视化如下所示:
<div
align=
"center"
>
<img
src=
"../../datasets/funsd_demo/gt_train_00040534.jpg"
width=
"500"
>
<img
src=
"../../datasets/funsd_demo/gt_train_00070353.jpg"
width=
"500"
>
</div>
图中,橙色区域代表
`header`
,淡蓝色区域代表
`question`
, 绿色区域表
`answer`
,粉红色代区域表
`other`
。
-
**下载地址**
:https://guillaumejaume.github.io/FUNSD/download/
<a
name=
"xfund"
></a>
#### 2、XFUND数据集
-
**数据来源**
:https://github.com/doc-analysis/XFUND
-
**数据简介**
:XFUND是一个多语种表单理解数据集,它包含7种不同语种的表单数据,并且全部用人工进行了键-值对形式的标注。其中每个语种的数据都包含了199张表单数据,并分为149张训练集以及50张测试集。部分图像以及标注框可视化如下所示:
<div
align=
"center"
>
<img
src=
"../../datasets/xfund_demo/gt_zh_train_0.jpg"
width=
"500"
>
<img
src=
"../../datasets/xfund_demo/gt_zh_train_1.jpg"
width=
"500"
>
</div>
-
**下载地址**
:https://github.com/doc-analysis/XFUND/releases/tag/v1.0
doc/doc_ch/inference_ppocr.md
View file @
80aced81
...
...
@@ -19,9 +19,9 @@
```
# 下载超轻量中文检测模型:
wget https://paddleocr.bj.bcebos.com/PP-OCRv
2
/chinese/ch_PP-OCRv
2
_det_infer.tar
tar xf ch_PP-OCRv
2
_det_infer.tar
python3 tools/infer/predict_det.py --image_dir="./doc/imgs/00018069.jpg" --det_model_dir="./ch_PP-OCRv
2
_det_infer/"
wget https://paddleocr.bj.bcebos.com/PP-OCRv
3
/chinese/ch_PP-OCRv
3
_det_infer.tar
tar xf ch_PP-OCRv
3
_det_infer.tar
python3 tools/infer/predict_det.py --image_dir="./doc/imgs/00018069.jpg" --det_model_dir="./ch_PP-OCRv
3
_det_infer/"
```
...
...
@@ -40,13 +40,13 @@ python3 tools/infer/predict_det.py --image_dir="./doc/imgs/00018069.jpg" --det_m
如果输入图片的分辨率比较大,而且想使用更大的分辨率预测,可以设置det_limit_side_len 为想要的值,比如1216:
```
python3 tools/infer/predict_det.py --image_dir="./doc/imgs/1.jpg" --det_model_dir="./
inference/
ch_PP-OCRv
2
_det_infer/" --det_limit_type=max --det_limit_side_len=1216
python3 tools/infer/predict_det.py --image_dir="./doc/imgs/1.jpg" --det_model_dir="./ch_PP-OCRv
3
_det_infer/" --det_limit_type=max --det_limit_side_len=1216
```
如果想使用CPU进行预测,执行命令如下
```
python3 tools/infer/predict_det.py --image_dir="./doc/imgs/1.jpg" --det_model_dir="./
inference/
ch_PP-OCRv
2
_det_infer/" --use_gpu=False
python3 tools/infer/predict_det.py --image_dir="./doc/imgs/1.jpg" --det_model_dir="./ch_PP-OCRv
3
_det_infer/" --use_gpu=False
```
...
...
@@ -59,13 +59,15 @@ python3 tools/infer/predict_det.py --image_dir="./doc/imgs/1.jpg" --det_model_di
### 2.1 超轻量中文识别模型推理
**注意**
`PP-OCRv3`
的识别模型使用的输入shape为
`3,48,320`
, 需要添加参数
`--rec_image_shape=3,48,320`
,如果不使用
`PP-OCRv3`
的识别模型,则无需设置该参数。
超轻量中文识别模型推理,可以执行如下命令:
```
# 下载超轻量中文识别模型:
wget https://paddleocr.bj.bcebos.com/PP-OCRv
2
/chinese/ch_PP-OCRv
2
_rec_infer.tar
tar xf ch_PP-OCRv
2
_rec_infer.tar
python3 tools/infer/predict_rec.py --image_dir="./doc/imgs_words/ch/word_4.jpg" --rec_model_dir="./ch_PP-OCRv
2
_rec_infer/"
wget https://paddleocr.bj.bcebos.com/PP-OCRv
3
/chinese/ch_PP-OCRv
3
_rec_infer.tar
tar xf ch_PP-OCRv
3
_rec_infer.tar
python3 tools/infer/predict_rec.py --image_dir="./doc/imgs_words/ch/word_4.jpg" --rec_model_dir="./ch_PP-OCRv
3
_rec_infer/"
--rec_image_shape=3,48,320
```

...
...
@@ -73,7 +75,7 @@ python3 tools/infer/predict_rec.py --image_dir="./doc/imgs_words/ch/word_4.jpg"
执行命令后,上面图像的预测结果(识别的文本和得分)会打印到屏幕上,示例如下:
```
bash
Predicts of ./doc/imgs_words/ch/word_4.jpg:
(
'实力活力'
, 0.9
8458153
)
Predicts of ./doc/imgs_words/ch/word_4.jpg:
(
'实力活力'
, 0.9
956803321838379
)
```
<a
name=
"多语言模型的推理"
></a>
...
...
@@ -119,17 +121,19 @@ Predicts of ./doc/imgs_words/ch/word_4.jpg:['0', 0.9999982]
## 4. 文本检测、方向分类和文字识别串联推理
**注意**
`PP-OCRv3`
的识别模型使用的输入shape为
`3,48,320`
, 需要添加参数
`--rec_image_shape=3,48,320`
,如果不使用
`PP-OCRv3`
的识别模型,则无需设置该参数。
以超轻量中文OCR模型推理为例,在执行预测时,需要通过参数
`image_dir`
指定单张图像或者图像集合的路径、参数
`det_model_dir`
,
`cls_model_dir`
和
`rec_model_dir`
分别指定检测,方向分类和识别的inference模型路径。参数
`use_angle_cls`
用于控制是否启用方向分类模型。
`use_mp`
表示是否使用多进程。
`total_process_num`
表示在使用多进程时的进程数。可视化识别结果默认保存到 ./inference_results 文件夹里面。
```
shell
# 使用方向分类器
python3 tools/infer/predict_system.py
--image_dir
=
"./doc/imgs/00018069.jpg"
--det_model_dir
=
"./
inference/
ch_PP-OCRv
2
_det_infer/"
--cls_model_dir
=
"./
inference/
cls/"
--rec_model_dir
=
"./
inference/
ch_PP-OCRv
2
_rec_infer/"
--use_angle_cls
=
true
python3 tools/infer/predict_system.py
--image_dir
=
"./doc/imgs/00018069.jpg"
--det_model_dir
=
"./ch_PP-OCRv
3
_det_infer/"
--cls_model_dir
=
"./cls/"
--rec_model_dir
=
"./ch_PP-OCRv
3
_rec_infer/"
--use_angle_cls
=
true
--rec_image_shape
=
3,48,320
# 不使用方向分类器
python3 tools/infer/predict_system.py
--image_dir
=
"./doc/imgs/00018069.jpg"
--det_model_dir
=
"./
inference/
ch_PP-OCRv
2
_det_infer/"
--rec_model_dir
=
"./
inference/
ch_PP-OCRv
2
_rec_infer/"
--use_angle_cls
=
false
python3 tools/infer/predict_system.py
--image_dir
=
"./doc/imgs/00018069.jpg"
--det_model_dir
=
"./ch_PP-OCRv
3
_det_infer/"
--rec_model_dir
=
"./ch_PP-OCRv
3
_rec_infer/"
--use_angle_cls
=
false
--rec_image_shape
=
3,48,320
# 使用多进程
python3 tools/infer/predict_system.py
--image_dir
=
"./doc/imgs/00018069.jpg"
--det_model_dir
=
"./
inference/
ch_PP-OCRv
2
_det_infer/"
--rec_model_dir
=
"./
inference/
ch_PP-OCRv
2
_rec_infer/"
--use_angle_cls
=
false
--use_mp
=
True
--total_process_num
=
6
python3 tools/infer/predict_system.py
--image_dir
=
"./doc/imgs/00018069.jpg"
--det_model_dir
=
"./ch_PP-OCRv
3
_det_infer/"
--rec_model_dir
=
"./ch_PP-OCRv
3
_rec_infer/"
--use_angle_cls
=
false
--use_mp
=
True
--total_process_num
=
6
--rec_image_shape
=
3,48,320
```
执行命令后,识别结果图像如下:


doc/doc_ch/knowledge_distillation.md
View file @
80aced81
<a
name=
"0"
></a>
# 知识蒸馏
+
[
知识蒸馏
](
#
0
)
+
[
1. 简介
](
#1
)
-
[
1.1 知识蒸馏介绍
](
#11
)
-
[
1.2 PaddleOCR知识蒸馏简介
](
#12
)
+
[
2. 配置文件解析
](
#2
)
+
[
2.1 识别配置文件解析
](
#21
)
-
[
2.1.1 模型结构
](
#211
)
-
[
2.1.2 损失函数
](
#212
)
-
[
2.1.3 后处理
](
#213
)
-
[
2.1.4 指标计算
](
#214
)
-
[
2.1.5 蒸馏模型微调
](
#215
)
+
[
2.2 检测配置文件解析
](
#22
)
-
[
2.2.1 模型结构
](
#221
)
-
[
2.2.2 损失函数
](
#222
)
-
[
2.2.3 后处理
](
#223
)
-
[
2.2.4 蒸馏指标计算
](
#224
)
-
[
2.2.5 检测蒸馏模型
F
ine
-
tune
](
#225
)
-
[
知识蒸馏
](
#
知识蒸馏
)
-
[
1. 简介
](
#1
-简介
)
-
[
1.1 知识蒸馏介绍
](
#11
-知识蒸馏介绍
)
-
[
1.2 PaddleOCR知识蒸馏简介
](
#12
-paddleocr知识蒸馏简介
)
-
[
2. 配置文件解析
](
#2
-配置文件解析
)
-
[
2.1 识别配置文件解析
](
#21
-识别配置文件解析
)
-
[
2.1.1 模型结构
](
#211
-模型结构
)
-
[
2.1.2 损失函数
](
#212
-损失函数
)
-
[
2.1.3 后处理
](
#213
-后处理
)
-
[
2.1.4 指标计算
](
#214
-指标计算
)
-
[
2.1.5 蒸馏模型微调
](
#215
-蒸馏模型微调
)
-
[
2.2 检测配置文件解析
](
#22
-检测配置文件解析
)
-
[
2.2.1 模型结构
](
#221
-模型结构
)
-
[
2.2.2 损失函数
](
#222
-损失函数
)
-
[
2.2.3 后处理
](
#223
-后处理
)
-
[
2.2.4 蒸馏指标计算
](
#224
-蒸馏指标计算
)
-
[
2.2.5 检测蒸馏模型
f
inetune
](
#225
-检测蒸馏模型finetune
)
<a
name=
"1"
></a>
## 1. 简介
...
...
@@ -60,7 +60,7 @@ PaddleOCR中集成了知识蒸馏的算法,具体地,有以下几个主要
<a
name=
"21"
></a>
### 2.1 识别配置文件解析
配置文件在
[
ch_PP-OCRv
2
_rec_distillation.yml
](
../../configs/rec/
ch_
PP-OCRv
2
/ch_PP-OCRv
2
_rec_distillation.yml
)
。
配置文件在
[
ch_PP-OCRv
3
_rec_distillation.yml
](
../../configs/rec/PP-OCRv
3
/ch_PP-OCRv
3
_rec_distillation.yml
)
。
<a
name=
"211"
></a>
#### 2.1.1 模型结构
...
...
@@ -69,7 +69,7 @@ PaddleOCR中集成了知识蒸馏的算法,具体地,有以下几个主要
```
yaml
Architecture
:
model_type
:
&model_type
"
rec"
# 模型类别,rec、det等,每个子网络的
的
模型类别都与
model_type
:
&model_type
"
rec"
# 模型类别,rec、det等,每个子网络的模型类别都与
name
:
DistillationModel
# 结构名称,蒸馏任务中,为DistillationModel,用于构建对应的结构
algorithm
:
Distillation
# 算法名称
Models
:
# 模型,包含子网络的配置信息
...
...
@@ -78,37 +78,55 @@ Architecture:
freeze_params
:
false
# 是否需要固定参数
return_all_feats
:
true
# 子网络的参数,表示是否需要返回所有的features,如果为False,则只返回最后的输出
model_type
:
*model_type
# 模型类别
algorithm
:
CRNN
# 子网络的算法名称,该子网络
剩
余参
与
均为构造参数,与普通的模型训练配置一致
algorithm
:
SVTR
# 子网络的算法名称,该子网络
其
余参
数
均为构造参数,与普通的模型训练配置一致
Transform
:
Backbone
:
name
:
MobileNetV1Enhance
scale
:
0.5
Neck
:
name
:
SequenceEncoder
encoder_type
:
rnn
hidden_size
:
64
last_conv_stride
:
[
1
,
2
]
last_pool_type
:
avg
Head
:
name
:
CTCHead
mid_channels
:
96
fc_decay
:
0.00002
Student
:
# 另外一个子网络,这里给的是DML的蒸馏示例,两个子网络结构相同,均需要学习参数
pretrained
:
# 下面的组网参数同上
name
:
MultiHead
head_list
:
-
CTCHead
:
Neck
:
name
:
svtr
dims
:
64
depth
:
2
hidden_dims
:
120
use_guide
:
True
Head
:
fc_decay
:
0.00001
-
SARHead
:
enc_dim
:
512
max_text_length
:
*max_text_length
Student
:
pretrained
:
freeze_params
:
false
return_all_feats
:
true
model_type
:
*model_type
algorithm
:
CRNN
algorithm
:
SVTR
Transform
:
Backbone
:
name
:
MobileNetV1Enhance
scale
:
0.5
Neck
:
name
:
SequenceEncoder
encoder_type
:
rnn
hidden_size
:
64
last_conv_stride
:
[
1
,
2
]
last_pool_type
:
avg
Head
:
name
:
CTCHead
mid_channels
:
96
fc_decay
:
0.00002
name
:
MultiHead
head_list
:
-
CTCHead
:
Neck
:
name
:
svtr
dims
:
64
depth
:
2
hidden_dims
:
120
use_guide
:
True
Head
:
fc_decay
:
0.00001
-
SARHead
:
enc_dim
:
512
max_text_length
:
*max_text_length
```
当然,这里如果希望添加更多的子网络进行训练,也可以按照
`Student`
与
`Teacher`
的添加方式,在配置文件中添加相应的字段。比如说如果希望有3个模型互相监督,共同训练,那么
`Architecture`
可以写为如下格式。
...
...
@@ -124,55 +142,82 @@ Architecture:
freeze_params
:
false
return_all_feats
:
true
model_type
:
*model_type
algorithm
:
CRNN
algorithm
:
SVTR
Transform
:
Backbone
:
name
:
MobileNetV1Enhance
scale
:
0.5
Neck
:
name
:
SequenceEncoder
encoder_type
:
rnn
hidden_size
:
64
last_conv_stride
:
[
1
,
2
]
last_pool_type
:
avg
Head
:
name
:
CTCHead
mid_channels
:
96
fc_decay
:
0.00002
name
:
MultiHead
head_list
:
-
CTCHead
:
Neck
:
name
:
svtr
dims
:
64
depth
:
2
hidden_dims
:
120
use_guide
:
True
Head
:
fc_decay
:
0.00001
-
SARHead
:
enc_dim
:
512
max_text_length
:
*max_text_length
Student
:
pretrained
:
freeze_params
:
false
return_all_feats
:
true
model_type
:
*model_type
algorithm
:
CRNN
algorithm
:
SVTR
Transform
:
Backbone
:
name
:
MobileNetV1Enhance
scale
:
0.5
Neck
:
name
:
SequenceEncoder
encoder_type
:
rnn
hidden_size
:
64
last_conv_stride
:
[
1
,
2
]
last_pool_type
:
avg
Head
:
name
:
CTCHead
mid_channels
:
96
fc_decay
:
0.00002
Student2
:
# 知识蒸馏任务中引入的新的子网络,其他部分与上述配置相同
name
:
MultiHead
head_list
:
-
CTCHead
:
Neck
:
name
:
svtr
dims
:
64
depth
:
2
hidden_dims
:
120
use_guide
:
True
Head
:
fc_decay
:
0.00001
-
SARHead
:
enc_dim
:
512
max_text_length
:
*max_text_length
Student2
:
pretrained
:
freeze_params
:
false
return_all_feats
:
true
model_type
:
*model_type
algorithm
:
CRNN
algorithm
:
SVTR
Transform
:
Backbone
:
name
:
MobileNetV1Enhance
scale
:
0.5
Neck
:
name
:
SequenceEncoder
encoder_type
:
rnn
hidden_size
:
64
last_conv_stride
:
[
1
,
2
]
last_pool_type
:
avg
Head
:
name
:
CTCHead
mid_channels
:
96
fc_decay
:
0.00002
name
:
MultiHead
head_list
:
-
CTCHead
:
Neck
:
name
:
svtr
dims
:
64
depth
:
2
hidden_dims
:
120
use_guide
:
True
Head
:
fc_decay
:
0.00001
-
SARHead
:
enc_dim
:
512
max_text_length
:
*max_text_length
```
最终该模型训练时,包含3个子网络:
`Teacher`
,
`Student`
,
`Student2`
。
...
...
@@ -205,34 +250,56 @@ Architecture:
```
yaml
Loss
:
name
:
CombinedLoss
# 损失函数名称,基于改名称,构建用于损失函数的类
loss_config_list
:
# 损失函数配置文件列表,为CombinedLoss的必备函数
-
DistillationCTCLoss
:
# 基于蒸馏的CTC损失函数,继承自标准的CTC loss
weight
:
1.0
# 损失函数的权重,loss_config_list中,每个损失函数的配置都必须包含该字段
model_name_list
:
[
"
Student"
,
"
Teacher"
]
# 对于蒸馏模型的预测结果,提取这两个子网络的输出,与gt计算CTC loss
key
:
head_out
# 取子网络输出dict中,该key对应的tensor
name
:
CombinedLoss
loss_config_list
:
-
DistillationDMLLoss
:
# 蒸馏的DML损失函数,继承自标准的DMLLoss
weight
:
1.0
# 权重
act
:
"
softmax"
# 激活函数,对输入使用激活函数处理,可以为softmax, sigmoid或者为None,默认为None
use_log
:
true
# 对输入计算log,如果函数已经
model_name_pairs
:
# 用于计算DML loss的子网络名称对,如果希望计算其他子网络的DML loss,可以在列表下面继续填充
-
[
"
Student"
,
"
Teacher"
]
key
:
head_out
# 取子网络输出dict中,该key对应的tensor
multi_head
:
True
# 是否为多头结构
dis_head
:
ctc
# 指定用于计算损失函数的head
name
:
dml_ctc
# 蒸馏loss的前缀名称,避免不同loss之间的命名冲突
-
DistillationDMLLoss
:
# 蒸馏的DML损失函数,继承自标准的DMLLoss
weight
:
0.5
# 权重
act
:
"
softmax"
# 激活函数,对输入使用激活函数处理,可以为softmax, sigmoid或者为None,默认为None
use_log
:
true
# 对输入计算log,如果函数已经
model_name_pairs
:
# 用于计算DML loss的子网络名称对,如果希望计算其他子网络的DML loss,可以在列表下面继续填充
-
[
"
Student"
,
"
Teacher"
]
key
:
head_out
# 取子网络输出dict中,该key对应的tensor
multi_head
:
True
# 是否为多头结构
dis_head
:
sar
# 指定用于计算损失函数的head
name
:
dml_sar
# 蒸馏loss的前缀名称,避免不同loss之间的命名冲突
-
DistillationDistanceLoss
:
# 蒸馏的距离损失函数
weight
:
1.0
# 权重
mode
:
"
l2"
# 距离计算方法,目前支持l1, l2, smooth_l1
model_name_pairs
:
# 用于计算distance loss的子网络名称对
-
[
"
Student"
,
"
Teacher"
]
key
:
backbone_out
# 取子网络输出dict中,该key对应的tensor
-
DistillationCTCLoss
:
# 基于蒸馏的CTC损失函数,继承自标准的CTC loss
weight
:
1.0
# 损失函数的权重,loss_config_list中,每个损失函数的配置都必须包含该字段
model_name_list
:
[
"
Student"
,
"
Teacher"
]
# 对于蒸馏模型的预测结果,提取这两个子网络的输出,与gt计算CTC loss
key
:
head_out
# 取子网络输出dict中,该key对应的tensor
-
DistillationSARLoss
:
# 基于蒸馏的SAR损失函数,继承自标准的SARLoss
weight
:
1.0
# 损失函数的权重,loss_config_list中,每个损失函数的配置都必须包含该字段
model_name_list
:
[
"
Student"
,
"
Teacher"
]
# 对于蒸馏模型的预测结果,提取这两个子网络的输出,与gt计算CTC loss
key
:
head_out
# 取子网络输出dict中,该key对应的tensor
multi_head
:
True
# 是否为多头结构,为true时,取出其中的SAR分支计算损失函数
```
上述损失函数中,所有的蒸馏损失函数均继承自标准的损失函数类,主要功能为: 对蒸馏模型的输出进行解析,找到用于计算损失的中间节点(tensor),再使用标准的损失函数类去计算。
以上述配置为例,最终蒸馏训练的损失函数包含下面
3
个部分。
以上述配置为例,最终蒸馏训练的损失函数包含下面
5
个部分。
-
`Student`
和
`Teacher`
的最终输出(
`head_out`
)与gt的CTC loss,权重为1。在这里因为2个子网络都需要更新参数,因此2者都需要计算与g的loss。
-
`Student`
和
`Teacher`
的最终输出(
`head_out`
)之间的DML loss,权重为1。
-
`Student`
和
`Teacher`
最终输出(
`head_out`
)的CTC分支与gt的CTC loss,权重为1。在这里因为2个子网络都需要更新参数,因此2者都需要计算与g的loss。
-
`Student`
和
`Teacher`
最终输出(
`head_out`
)的SAR分支与gt的SAR loss,权重为1.0。在这里因为2个子网络都需要更新参数,因此2者都需要计算与g的loss。
-
`Student`
和
`Teacher`
最终输出(
`head_out`
)的CTC分支之间的DML loss,权重为1。
-
`Student`
和
`Teacher`
最终输出(
`head_out`
)的SAR分支之间的DML loss,权重为0.5。
-
`Student`
和
`Teacher`
的骨干网络输出(
`backbone_out`
)之间的l2 loss,权重为1。
关于
`CombinedLoss`
更加具体的实现可以参考:
[
combined_loss.py
](
../../ppocr/losses/combined_loss.py#L23
)
。关于
`DistillationCTCLoss`
等蒸馏损失函数更加具体的实现可以参考
[
distillation_loss.py
](
../../ppocr/losses/distillation_loss.py
)
。
<a
name=
"213"
></a>
...
...
@@ -245,6 +312,7 @@ PostProcess:
name
:
DistillationCTCLabelDecode
# 蒸馏任务的CTC解码后处理,继承自标准的CTCLabelDecode类
model_name
:
[
"
Student"
,
"
Teacher"
]
# 对于蒸馏模型的预测结果,提取这两个子网络的输出,进行解码
key
:
head_out
# 取子网络输出dict中,该key对应的tensor
multi_head
:
True
# 多头结构时,会取出其中的CTC分支进行计算
```
以上述配置为例,最终会同时计算
`Student`
和
`Teahcer`
2个子网络的CTC解码输出,返回一个
`dict`
,
`key`
为用于处理的子网络名称,
`value`
为用于处理的子网络列表。
...
...
@@ -262,6 +330,7 @@ Metric:
base_metric_name
:
RecMetric
# 指标计算的基类,对于模型的输出,会基于该类,计算指标
main_indicator
:
acc
# 指标的名称
key
:
"
Student"
# 选取该子网络的 main_indicator 作为作为保存保存best model的判断标准
ignore_space
:
False
# 评估时是否忽略空格的影响
```
以上述配置为例,最终会使用
`Student`
子网络的acc指标作为保存best model的判断指标,同时,日志中也会打印出所有子网络的acc指标。
...
...
@@ -273,15 +342,15 @@ Metric:
对蒸馏得到的识别蒸馏进行微调有2种方式。
(1)基于知识蒸馏的微调:这种情况比较简单,下载预训练模型,在
[
ch_PP-OCRv
2
_rec_distillation.yml
](
../../configs/rec/
ch_
PP-OCRv
2
/ch_PP-OCRv
2
_rec_distillation.yml
)
中配置好预训练模型路径以及自己的数据路径,即可进行模型微调训练。
(1)基于知识蒸馏的微调:这种情况比较简单,下载预训练模型,在
[
ch_PP-OCRv
3
_rec_distillation.yml
](
../../configs/rec/PP-OCRv
3
/ch_PP-OCRv
3
_rec_distillation.yml
)
中配置好预训练模型路径以及自己的数据路径,即可进行模型微调训练。
(2)微调时不使用知识蒸馏:这种情况,需要首先将预训练模型中的学生模型参数提取出来,具体步骤如下。
*
首先下载预训练模型并解压。
```
shell
# 下面预训练模型并解压
wget https://paddleocr.bj.bcebos.com/PP-OCRv
2
/chinese/ch_PP-OCRv
2
_rec_train.tar
tar
-xf
ch_PP-OCRv
2
_rec_train.tar
wget https://paddleocr.bj.bcebos.com/PP-OCRv
3
/chinese/ch_PP-OCRv
3
_rec_train.tar
tar
-xf
ch_PP-OCRv
3
_rec_train.tar
```
*
然后使用python,对其中的学生模型参数进行提取
...
...
@@ -289,7 +358,7 @@ tar -xf ch_PP-OCRv2_rec_train.tar
```
python
import
paddle
# 加载预训练模型
all_params
=
paddle
.
load
(
"ch_PP-OCRv
2
_rec_train/best_accuracy.pdparams"
)
all_params
=
paddle
.
load
(
"ch_PP-OCRv
3
_rec_train/best_accuracy.pdparams"
)
# 查看权重参数的keys
print
(
all_params
.
keys
())
# 学生模型的权重提取
...
...
@@ -297,18 +366,17 @@ s_params = {key[len("Student."):]: all_params[key] for key in all_params if "Stu
# 查看学生模型权重参数的keys
print
(
s_params
.
keys
())
# 保存
paddle
.
save
(
s_params
,
"ch_PP-OCRv
2
_rec_train/student.pdparams"
)
paddle
.
save
(
s_params
,
"ch_PP-OCRv
3
_rec_train/student.pdparams"
)
```
转化完成之后,使用
[
ch_PP-OCRv
2
_rec.yml
](
../../configs/rec/
ch_
PP-OCRv
2
/ch_PP-OCRv
2
_rec.yml
)
,修改预训练模型的路径(为导出的
`student.pdparams`
模型路径)以及自己的数据路径,即可进行模型微调。
转化完成之后,使用
[
ch_PP-OCRv
3
_rec.yml
](
../../configs/rec/PP-OCRv
3
/ch_PP-OCRv
3
_rec.yml
)
,修改预训练模型的路径(为导出的
`student.pdparams`
模型路径)以及自己的数据路径,即可进行模型微调。
<a
name=
"22"
></a>
### 2.2 检测配置文件解析
检测模型蒸馏的配置文件在PaddleOCR/configs/det/ch_PP-OCRv2/目录下,包含三个蒸馏配置文件:
-
ch_PP-OCRv2_det_cml.yml,采用cml蒸馏,采用一个大模型蒸馏两个小模型,且两个小模型互相学习的方法
-
ch_PP-OCRv2_det_dml.yml,采用DML的蒸馏,两个Student模型互蒸馏的方法
-
ch_PP-OCRv2_det_distill.yml,采用Teacher大模型蒸馏小模型Student的方法
检测模型蒸馏的配置文件在PaddleOCR/configs/det/ch_PP-OCRv3/目录下,包含两个个蒸馏配置文件:
-
ch_PP-OCRv3_det_cml.yml,采用cml蒸馏,采用一个大模型蒸馏两个小模型,且两个小模型互相学习的方法
-
ch_PP-OCRv3_det_dml.yml,采用DML的蒸馏,两个Student模型互蒸馏的方法
<a
name=
"221"
></a>
#### 2.2.1 模型结构
...
...
@@ -321,44 +389,44 @@ Architecture:
algorithm: Distillation # 算法名称
Models: # 模型,包含子网络的配置信息
Student: # 子网络名称,至少需要包含`pretrained`与`freeze_params`信息,其他的参数为子网络的构造参数
pretrained: ./pretrain_models/MobileNetV3_large_x0_5_pretrained
freeze_params: false # 是否需要固定参数
return_all_feats: false # 子网络的参数,表示是否需要返回所有的features,如果为False,则只返回最后的输出
model_type: det
algorithm: DB
Backbone:
name: MobileNetV3
scale: 0.5
model_name: large
disable_se: True
name: ResNet
in_channels: 3
layers: 50
Neck:
name:
DBFP
N
out_channels:
9
6
name:
LKPA
N
out_channels:
25
6
Head:
name: DBHead
kernel_list: [7,2,2]
k: 50
Teacher: # 另外一个子网络,这里给的是普通大模型蒸小模型的蒸馏示例,
pretrained: ./pretrain_models/ch_ppocr_server_v2.0_det_train/best_accuracy
freeze_params: true # Teacher模型是训练好的,不需要参与训练,freeze_params设置为True
Teacher: # 另外一个子网络,这里给的是DML蒸馏示例,
freeze_params: true
return_all_feats: false
model_type: det
algorithm: DB
Transform:
Backbone:
name: ResNet
layers: 18
in_channels: 3
layers: 50
Neck:
name:
DBFP
N
name:
LKPA
N
out_channels: 256
Head:
name: DBHead
kernel_list: [7,2,2]
k: 50
```
如果是采用DML,即两个小模型互相学习的方法,上述配置文件里的Teacher网络结构需要设置为Student模型一样的配置,具体参考配置文件
[
ch_PP-OCRv
2
_det_dml.yml
](
https://github.com/PaddlePaddle/PaddleOCR/blob/release/2.4/configs/det/ch_PP-OCRv
2
/ch_PP-OCRv
2
_det_dml.yml
)
。
如果是采用DML,即两个小模型互相学习的方法,上述配置文件里的Teacher网络结构需要设置为Student模型一样的配置,具体参考配置文件
[
ch_PP-OCRv
3
_det_dml.yml
](
https://github.com/PaddlePaddle/PaddleOCR/blob/release/2.4/configs/det/ch_PP-OCRv
3
/ch_PP-OCRv
3
_det_dml.yml
)
。
下面介绍
[
ch_PP-OCRv
2
_det_cml.yml
](
https://github.com/PaddlePaddle/PaddleOCR/blob/release/2.4/configs/det/ch_PP-OCRv
2
/ch_PP-OCRv
2
_det_cml.yml
)
的配置文件参数:
下面介绍
[
ch_PP-OCRv
3
_det_cml.yml
](
https://github.com/PaddlePaddle/PaddleOCR/blob/release/2.4/configs/det/ch_PP-OCRv
3
/ch_PP-OCRv
3
_det_cml.yml
)
的配置文件参数:
```
Architecture:
...
...
@@ -375,12 +443,14 @@ Architecture:
Transform:
Backbone:
name: ResNet
layers: 18
in_channels: 3
layers: 50
Neck:
name:
DBFP
N
name:
LKPA
N
out_channels: 256
Head:
name: DBHead
kernel_list: [7,2,2]
k: 50
Student: # CML蒸馏的Student模型配置
pretrained: ./pretrain_models/MobileNetV3_large_x0_5_pretrained
...
...
@@ -392,10 +462,11 @@ Architecture:
name: MobileNetV3
scale: 0.5
model_name: large
disable_se:
T
rue
disable_se:
t
rue
Neck:
name:
DB
FPN
name:
RSE
FPN
out_channels: 96
shortcut: True
Head:
name: DBHead
k: 50
...
...
@@ -410,10 +481,11 @@ Architecture:
name: MobileNetV3
scale: 0.5
model_name: large
disable_se:
T
rue
disable_se:
t
rue
Neck:
name:
DB
FPN
name:
RSE
FPN
out_channels: 96
shortcut: True
Head:
name: DBHead
k: 50
...
...
@@ -445,34 +517,7 @@ Architecture:
<a
name=
"222"
></a>
#### 2.2.2 损失函数
知识蒸馏任务中,检测ch_PP-OCRv2_det_distill.yml蒸馏损失函数配置如下所示。
```
yaml
Loss
:
name
:
CombinedLoss
# 损失函数名称,基于改名称,构建用于损失函数的类
loss_config_list
:
# 损失函数配置文件列表,为CombinedLoss的必备函数
-
DistillationDilaDBLoss
:
# 基于蒸馏的DB损失函数,继承自标准的DBloss
weight
:
1.0
# 损失函数的权重,loss_config_list中,每个损失函数的配置都必须包含该字段
model_name_pairs
:
# 对于蒸馏模型的预测结果,提取这两个子网络的输出,计算Teacher模型和Student模型输出的loss
-
[
"
Student"
,
"
Teacher"
]
key
:
maps
# 取子网络输出dict中,该key对应的tensor
balance_loss
:
true
# 以下几个参数为标准DBloss的配置参数
main_loss_type
:
DiceLoss
alpha
:
5
beta
:
10
ohem_ratio
:
3
-
DistillationDBLoss
:
# 基于蒸馏的DB损失函数,继承自标准的DBloss,用于计算Student和GT之间的loss
weight
:
1.0
model_name_list
:
[
"
Student"
]
# 模型名字只有Student,表示计算Student和GT之间的loss
name
:
DBLoss
balance_loss
:
true
main_loss_type
:
DiceLoss
alpha
:
5
beta
:
10
ohem_ratio
:
3
```
同理,检测ch_PP-OCRv2_det_cml.yml蒸馏损失函数配置如下所示。相比较于ch_PP-OCRv2_det_distill.yml的损失函数配置,cml蒸馏的损失函数配置做了3个改动:
检测ch_PP-OCRv3_det_cml.yml蒸馏损失函数配置如下所示。
```
yaml
Loss
:
name
:
CombinedLoss
...
...
@@ -545,26 +590,25 @@ Metric:
<a
name=
"225"
></a>
#### 2.2.5 检测蒸馏模型finetune
检测蒸馏有三种方式:
-
采用ch_PP-OCRv2_det_distill.yml,Teacher模型设置为PaddleOCR提供的模型或者您训练好的大模型
-
采用ch_PP-OCRv2_det_cml.yml,采用cml蒸馏,同样Teacher模型设置为PaddleOCR提供的模型或者您训练好的大模型
-
采用ch_PP-OCRv2_det_dml.yml,采用DML的蒸馏,两个Student模型互蒸馏的方法,在PaddleOCR采用的数据集上大约有1.7%的精度提升。
PP-OCRv3检测蒸馏有两种方式:
-
采用ch_PP-OCRv3_det_cml.yml,采用cml蒸馏,同样Teacher模型设置为PaddleOCR提供的模型或者您训练好的大模型
-
采用ch_PP-OCRv3_det_dml.yml,采用DML的蒸馏,两个Student模型互蒸馏的方法,在PaddleOCR采用的数据集上相比单独训练Student模型有1%-2%的提升。
在具体fine-tune时,需要在网络结构的
`pretrained`
参数中设置要加载的预训练模型。
在精度提升方面,cml的精度>dml的精度
>distill
蒸馏方法的精度。当数据量不足或者Teacher模型精度与Student精度相差不大的时候,这个结论或许会改变。
在精度提升方面,cml的精度>dml的精度蒸馏方法的精度。当数据量不足或者Teacher模型精度与Student精度相差不大的时候,这个结论或许会改变。
另外,由于PaddleOCR提供的蒸馏预训练模型包含了多个模型的参数,如果您希望提取Student模型的参数,可以参考如下代码:
```
# 下载蒸馏训练模型的参数
wget https://paddleocr.bj.bcebos.com/PP-OCRv2/chinese/ch_PP-OCRv
2
_det_distill_train.tar
wget https://paddleocr.bj.bcebos.com/PP-OCRv2/chinese/ch_PP-OCRv
3
_det_distill_train.tar
```
```
python
import
paddle
# 加载预训练模型
all_params
=
paddle
.
load
(
"ch_PP-OCRv
2
_det_distill_train/best_accuracy.pdparams"
)
all_params
=
paddle
.
load
(
"ch_PP-OCRv
3
_det_distill_train/best_accuracy.pdparams"
)
# 查看权重参数的keys
print
(
all_params
.
keys
())
# 学生模型的权重提取
...
...
@@ -572,7 +616,7 @@ s_params = {key[len("Student."):]: all_params[key] for key in all_params if "Stu
# 查看学生模型权重参数的keys
print
(
s_params
.
keys
())
# 保存
paddle
.
save
(
s_params
,
"ch_PP-OCRv
2
_det_distill_train/student.pdparams"
)
paddle
.
save
(
s_params
,
"ch_PP-OCRv
3
_det_distill_train/student.pdparams"
)
```
最终
`Student`
模型的参数将会保存在
`ch_PP-OCRv
2
_det_distill_train/student.pdparams`
中,用于模型的fine-tune。
最终
`Student`
模型的参数将会保存在
`ch_PP-OCRv
3
_det_distill_train/student.pdparams`
中,用于模型的fine-tune。
doc/doc_ch/models_list.md
View file @
80aced81
# PP-OCR系列模型列表(V
2.1
,202
1年9月6
日更新)
# PP-OCR系列模型列表(V
3
,202
2年4月28
日更新)
> **说明**
> 1.
2.1
版模型相比2
.0
版模型,
2.1的模型
在模型精度上
做了
提升
> 2. 2.0版模型和[1.1版模型](https://github.com/PaddlePaddle/PaddleOCR/blob/develop/doc/doc_ch/models_list.md) 的主要区别在于动态图训练vs.静态图训练,模型性能上无明显差距。
> 1.
V3
版模型相比
V
2版模型,在模型精度上
有进一步
提升
> 2. 2.0
+
版模型和[1.1版模型](https://github.com/PaddlePaddle/PaddleOCR/blob/develop/doc/doc_ch/models_list.md) 的主要区别在于动态图训练vs.静态图训练,模型性能上无明显差距。
> 3. 本文档提供的是PPOCR自研模型列表,更多基于公开数据集的算法介绍与预训练模型可以参考:[算法概览文档](./algorithm_overview.md)。
-
[
PP-OCR系列模型列表(V
2.1
,202
1年9月6日更新)
](
#pp-ocr系列模型列表v212021年9月6
日更新
)
-
PP-OCR系列模型列表(V
3
,202
2年4月28
日更新
)
-
[
1. 文本检测模型
](
#1-文本检测模型
)
-
[
1.1 中文检测模型
](
#1.1
)
-
[
2.2 英文检测模型
](
#1.2
)
-
[
1.3 多语言检测模型
](
#1.3
)
-
[
2. 文本识别模型
](
#2-文本识别模型
)
-
[
2.1 中文识别模型
](
#21-中文识别模型
)
-
[
2.2 英文识别模型
](
#22-英文识别模型
)
...
...
@@ -32,14 +35,42 @@ PaddleOCR提供的可下载模型包括`推理模型`、`训练模型`、`预训
<a
name=
"文本检测模型"
></a>
## 1. 文本检测模型
<a
name=
"1.1"
></a>
### 1.1 中文检测模型
|模型名称|模型简介|配置文件|推理模型大小|下载地址|
| --- | --- | --- | --- | --- |
|ch_PP-OCRv2_det_slim|【最新】slim量化+蒸馏版超轻量模型,支持中英文、多语种文本检测|
[
ch_PP-OCRv2_det_cml.yml
](
../../configs/det/ch_PP-OCRv2/ch_PP-OCRv2_det_cml.yml
)
| 3M |
[
推理模型
](
https://paddleocr.bj.bcebos.com/PP-OCRv2/chinese/ch_PP-OCRv2_det_slim_quant_infer.tar
)
|
|ch_PP-OCRv2_det|【最新】原始超轻量模型,支持中英文、多语种文本检测|
[
ch_PP-OCRv2_det_cml.yml
](
../../configs/det/ch_PP-OCRv2/ch_PP-OCRv2_det_cml.yml
)
|3M|
[
推理模型
](
https://paddleocr.bj.bcebos.com/PP-OCRv2/chinese/ch_PP-OCRv2_det_infer.tar
)
/
[
训练模型
](
https://paddleocr.bj.bcebos.com/PP-OCRv2/chinese/ch_PP-OCRv2_det_distill_train.tar
)
|
|ch_PP-OCRv3_det_slim|【最新】slim量化+蒸馏版超轻量模型,支持中英文、多语种文本检测|
[
ch_PP-OCRv3_det_cml.yml
](
../../configs/det/ch_PP-OCRv3/ch_PP-OCRv3_det_cml.yml
)
| 1.1M |
[
推理模型
](
https://paddleocr.bj.bcebos.com/PP-OCRv3/chinese/ch_PP-OCRv3_det_slim_infer.tar
)
/
[
训练模型(coming soon)
](
https://paddleocr.bj.bcebos.com/PP-OCRv3/chinese/ch_PP-OCRv3_det_slim_distill_train.tar
)
/
[
slim模型
](
https://paddleocr.bj.bcebos.com/PP-OCRv3/chinese/ch_PP-OCRv3_det_slim_infer.nb
)
|
|ch_PP-OCRv3_det| 【最新】原始超轻量模型,支持中英文、多语种文本检测 |
[
ch_PP-OCRv3_det_cml.yml
](
../../configs/det/ch_PP-OCRv3/ch_PP-OCRv3_det_cml.yml
)
| 3.8M |
[
推理模型
](
https://paddleocr.bj.bcebos.com/PP-OCRv3/chinese/ch_PP-OCRv3_det_infer.tar
)
/
[
训练模型
](
https://paddleocr.bj.bcebos.com/PP-OCRv3/chinese/ch_PP-OCRv3_det_distill_train.tar
)
|
|ch_PP-OCRv2_det_slim| slim量化+蒸馏版超轻量模型,支持中英文、多语种文本检测|
[
ch_PP-OCRv2_det_cml.yml
](
../../configs/det/ch_PP-OCRv2/ch_PP-OCRv2_det_cml.yml
)
| 3M |
[
推理模型
](
https://paddleocr.bj.bcebos.com/PP-OCRv2/chinese/ch_PP-OCRv2_det_slim_quant_infer.tar
)
|
|ch_PP-OCRv2_det| 原始超轻量模型,支持中英文、多语种文本检测|
[
ch_PP-OCRv2_det_cml.yml
](
../../configs/det/ch_PP-OCRv2/ch_PP-OCRv2_det_cml.yml
)
|3M|
[
推理模型
](
https://paddleocr.bj.bcebos.com/PP-OCRv2/chinese/ch_PP-OCRv2_det_infer.tar
)
/
[
训练模型
](
https://paddleocr.bj.bcebos.com/PP-OCRv2/chinese/ch_PP-OCRv2_det_distill_train.tar
)
|
|ch_ppocr_mobile_slim_v2.0_det|slim裁剪版超轻量模型,支持中英文、多语种文本检测|
[
ch_det_mv3_db_v2.0.yml
](
../../configs/det/ch_ppocr_v2.0/ch_det_mv3_db_v2.0.yml
)
| 2.6M |
[
推理模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/slim/ch_ppocr_mobile_v2.0_det_prune_infer.tar
)
|
|ch_ppocr_mobile_v2.0_det|原始超轻量模型,支持中英文、多语种文本检测|
[
ch_det_mv3_db_v2.0.yml
](
../../configs/det/ch_ppocr_v2.0/ch_det_mv3_db_v2.0.yml
)
|3M|
[
推理模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_mobile_v2.0_det_infer.tar
)
/
[
训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_mobile_v2.0_det_train.tar
)
|
|ch_ppocr_server_v2.0_det|通用模型,支持中英文、多语种文本检测,比超轻量模型更大,但效果更好|
[
ch_det_res18_db_v2.0.yml
](
../../configs/det/ch_ppocr_v2.0/ch_det_res18_db_v2.0.yml
)
|47M|
[
推理模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_server_v2.0_det_infer.tar
)
/
[
训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_server_v2.0_det_train.tar
)
|
<a
name=
"1.2"
></a>
### 1.2 英文检测模型
|模型名称|模型简介|配置文件|推理模型大小|下载地址|
| --- | --- | --- | --- | --- |
|en_PP-OCRv3_det_slim |【最新】slim量化版超轻量模型,支持英文、数字检测 |
[
ch_PP-OCRv3_det_cml.yml
](
../../configs/det/ch_PP-OCRv3/ch_PP-OCRv3_det_cml.yml
)
| 1.1M |
[
推理模型(coming soon)
](
https://paddleocr.bj.bcebos.com/PP-OCRv3/english/en_PP-OCRv3_det_slim_infer.tar
)
/
[
训练模型(coming soon)
](
https://paddleocr.bj.bcebos.com/PP-OCRv3/english/en_PP-OCRv3_det_slim_distill_train.tar
)
/
[
slim模型(coming soon)
](
https://paddleocr.bj.bcebos.com/PP-OCRv3/english/en_PP-OCRv3_det_slim_infer.nb
)
|
|ch_PP-OCRv3_det |【最新】原始超轻量模型,支持英文、数字检测|
[
ch_PP-OCRv3_det_cml.yml
](
../../configs/det/ch_PP-OCRv3/ch_PP-OCRv3_det_cml.yml
)
| 3.8M |
[
推理模型
](
https://paddleocr.bj.bcebos.com/PP-OCRv3/english/en_PP-OCRv3_det_infer.tar
)
/
[
训练模型
](
https://paddleocr.bj.bcebos.com/PP-OCRv3/english/en_PP-OCRv3_det_distill_train.tar
)
|
*
注:英文检测模型与中文检测模型结构完全相同,只有训练数据不同,在此仅提供相同的配置文件。
<a
name=
"1.3"
></a>
### 1.3 多语言检测模型
|模型名称|模型简介|配置文件|推理模型大小|下载地址|
| --- | --- | --- | --- | --- |
| ml_PP-OCRv3_det_slim |【最新】slim量化版超轻量模型,支持多语言检测 |
[
ch_PP-OCRv3_det_cml.yml
](
../../configs/det/ch_PP-OCRv3/ch_PP-OCRv3_det_cml.yml
)
| 1.1M |
[
推理模型(coming soon)
](
https://paddleocr.bj.bcebos.com/PP-OCRv3/multilingual/Multilingual_PP-OCRv3_det_slim_infer.tar
)
/
[
训练模型(coming soon)
](
https://paddleocr.bj.bcebos.com/PP-OCRv3/multilingual/Multilingual_PP-OCRv3_det_slim_distill_train.tar
)
/
[
slim模型(coming soon)
](
https://paddleocr.bj.bcebos.com/PP-OCRv3/multilingual/Multilingual_PP-OCRv3_det_slim_infer.nb
)
|
| ml_PP-OCRv3_det |【最新】原始超轻量模型,支持多语言检测 |
[
ch_PP-OCRv3_det_cml.yml
](
../../configs/det/ch_PP-OCRv3/ch_PP-OCRv3_det_cml.yml
)
| 3.8M |
[
推理模型
](
https://paddleocr.bj.bcebos.com/PP-OCRv3/multilingual/Multilingual_PP-OCRv3_det_infer.tar
)
/
[
训练模型
](
https://paddleocr.bj.bcebos.com/PP-OCRv3/multilingual/Multilingual_PP-OCRv3_det_distill_train.tar
)
|
*
注:多语言检测模型与中文检测模型结构完全相同,只有训练数据不同,在此仅提供相同的配置文件。
<a
name=
"文本识别模型"
></a>
## 2. 文本识别模型
...
...
@@ -50,8 +81,10 @@ PaddleOCR提供的可下载模型包括`推理模型`、`训练模型`、`预训
|模型名称|模型简介|配置文件|推理模型大小|下载地址|
| --- | --- | --- | --- | --- |
|ch_PP-OCRv2_rec_slim|【最新】slim量化版超轻量模型,支持中英文、数字识别|
[
ch_PP-OCRv2_rec.yml
](
../../configs/rec/ch_PP-OCRv2/ch_PP-OCRv2_rec.yml
)
| 9M |
[
推理模型
](
https://paddleocr.bj.bcebos.com/PP-OCRv2/chinese/ch_PP-OCRv2_rec_slim_quant_infer.tar
)
/
[
训练模型
](
https://paddleocr.bj.bcebos.com/PP-OCRv2/chinese/ch_PP-OCRv2_rec_slim_quant_train.tar
)
|
|ch_PP-OCRv2_rec|【最新】原始超轻量模型,支持中英文、数字识别|
[
ch_PP-OCRv2_rec_distillation.yml
](
../../configs/rec/ch_PP-OCRv2/ch_PP-OCRv2_rec_distillation.yml
)
|8.5M|
[
推理模型
](
https://paddleocr.bj.bcebos.com/PP-OCRv2/chinese/ch_PP-OCRv2_rec_infer.tar
)
/
[
训练模型
](
https://paddleocr.bj.bcebos.com/PP-OCRv2/chinese/ch_PP-OCRv2_rec_train.tar
)
|
|ch_PP-OCRv3_rec_slim |【最新】slim量化版超轻量模型,支持中英文、数字识别|
[
ch_PP-OCRv3_rec_distillation.yml
](
../../configs/rec/PP-OCRv3/ch_PP-OCRv3_rec_distillation.yml
)
| 4.9M |
[
推理模型
](
https://paddleocr.bj.bcebos.com/PP-OCRv3/chinese/ch_PP-OCRv3_rec_slim_infer.tar
)
/
[
训练模型
](
https://paddleocr.bj.bcebos.com/PP-OCRv3/chinese/ch_PP-OCRv3_rec_slim_train.tar
)
/
[
slim模型
](
https://paddleocr.bj.bcebos.com/PP-OCRv3/chinese/ch_PP-OCRv3_rec_slim_infer.nb
)
|
|ch_PP-OCRv3_rec|【最新】原始超轻量模型,支持中英文、数字识别|
[
ch_PP-OCRv3_rec_distillation.yml
](
../../configs/rec/PP-OCRv3/ch_PP-OCRv3_rec_distillation.yml
)
| 12.4M |
[
推理模型
](
https://paddleocr.bj.bcebos.com/PP-OCRv3/chinese/ch_PP-OCRv3_rec_infer.tar
)
/
[
训练模型
](
https://paddleocr.bj.bcebos.com/PP-OCRv3/chinese/ch_PP-OCRv3_rec_train.tar
)
|
|ch_PP-OCRv2_rec_slim| slim量化版超轻量模型,支持中英文、数字识别|
[
ch_PP-OCRv2_rec.yml
](
../../configs/rec/ch_PP-OCRv2/ch_PP-OCRv2_rec.yml
)
| 9M |
[
推理模型
](
https://paddleocr.bj.bcebos.com/PP-OCRv2/chinese/ch_PP-OCRv2_rec_slim_quant_infer.tar
)
/
[
训练模型
](
https://paddleocr.bj.bcebos.com/PP-OCRv2/chinese/ch_PP-OCRv2_rec_slim_quant_train.tar
)
|
|ch_PP-OCRv2_rec| 原始超轻量模型,支持中英文、数字识别|
[
ch_PP-OCRv2_rec_distillation.yml
](
../../configs/rec/ch_PP-OCRv2/ch_PP-OCRv2_rec_distillation.yml
)
|8.5M|
[
推理模型
](
https://paddleocr.bj.bcebos.com/PP-OCRv2/chinese/ch_PP-OCRv2_rec_infer.tar
)
/
[
训练模型
](
https://paddleocr.bj.bcebos.com/PP-OCRv2/chinese/ch_PP-OCRv2_rec_train.tar
)
|
|ch_ppocr_mobile_slim_v2.0_rec|slim裁剪量化版超轻量模型,支持中英文、数字识别|
[
rec_chinese_lite_train_v2.0.yml
](
../../configs/rec/ch_ppocr_v2.0/rec_chinese_lite_train_v2.0.yml
)
| 6M |
[
推理模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_mobile_v2.0_rec_slim_infer.tar
)
/
[
训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_mobile_v2.0_rec_slim_train.tar
)
|
|ch_ppocr_mobile_v2.0_rec|原始超轻量模型,支持中英文、数字识别|
[
rec_chinese_lite_train_v2.0.yml
](
../../configs/rec/ch_ppocr_v2.0/rec_chinese_lite_train_v2.0.yml
)
|5.2M|
[
推理模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_mobile_v2.0_rec_infer.tar
)
/
[
训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_mobile_v2.0_rec_train.tar
)
/
[
预训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_mobile_v2.0_rec_pre.tar
)
|
|ch_ppocr_server_v2.0_rec|通用模型,支持中英文、数字识别|
[
rec_chinese_common_train_v2.0.yml
](
../../configs/rec/ch_ppocr_v2.0/rec_chinese_common_train_v2.0.yml
)
|94.8M|
[
推理模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_server_v2.0_rec_infer.tar
)
/
[
训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_server_v2.0_rec_train.tar
)
/
[
预训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_server_v2.0_rec_pre.tar
)
|
...
...
@@ -63,26 +96,28 @@ PaddleOCR提供的可下载模型包括`推理模型`、`训练模型`、`预训
|模型名称|模型简介|配置文件|推理模型大小|下载地址|
| --- | --- | --- | --- | --- |
|en_PP-OCRv3_rec_slim |【最新】slim量化版超轻量模型,支持英文、数字识别 |
[
en_PP-OCRv3_rec.yml
](
../../configs/rec/PP-OCRv3/en_PP-OCRv3_rec.yml
)
| - |
[
推理模型
](
https://paddleocr.bj.bcebos.com/PP-OCRv3/english/en_PP-OCRv3_rec_slim_infer.tar
)
/
[
训练模型
](
https://paddleocr.bj.bcebos.com/PP-OCRv3/english/en_PP-OCRv3_rec_slim_train.tar
)
/
[
slim模型
](
https://paddleocr.bj.bcebos.com/PP-OCRv3/english/en_PP-OCRv3_rec_slim_infer.nb
)
|
|ch_PP-OCRv3_rec |【最新】原始超轻量模型,支持英文、数字识别|
[
en_PP-OCRv3_rec.yml
](
../../configs/rec/en_PP-OCRv3/en_PP-OCRv3_rec.yml
)
| 9.6M |
[
推理模型
](
https://paddleocr.bj.bcebos.com/PP-OCRv3/english/en_PP-OCRv3_rec_infer.tar
)
/
[
训练模型
](
https://paddleocr.bj.bcebos.com/PP-OCRv3/english/en_PP-OCRv3_rec_train.tar
)
|
|en_number_mobile_slim_v2.0_rec|slim裁剪量化版超轻量模型,支持英文、数字识别|
[
rec_en_number_lite_train.yml
](
../../configs/rec/multi_language/rec_en_number_lite_train.yml
)
| 2.7M |
[
推理模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/en/en_number_mobile_v2.0_rec_slim_infer.tar
)
/
[
训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/en/en_number_mobile_v2.0_rec_slim_train.tar
)
|
|en_number_mobile_v2.0_rec|原始超轻量模型,支持英文、数字识别|
[
rec_en_number_lite_train.yml
](
../../configs/rec/multi_language/rec_en_number_lite_train.yml
)
|2.6M|
[
推理模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/multilingual/en_number_mobile_v2.0_rec_infer.tar
)
/
[
训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/multilingual/en_number_mobile_v2.0_rec_train.tar
)
|
<a
name=
"多语言识别模型"
></a>
### 2.3 多语言识别模型(更多语言持续更新中...)
|模型名称|字典文件|模型简介|配置文件|推理模型大小|下载地址|
| --- | --- | --- | --- |--- | --- |
| french_mobile_v2.0_rec | ppocr/utils/dict/french_dict.txt |法文识别|
[
rec_french_lite_train.yml
](
../../configs/rec/multi_language/rec_french_lite_train.yml
)
|2.65M|
[
推理模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/multilingual/french_mobile_v2.0_rec_infer.tar
)
/
[
训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/multilingual/french_mobile_v2.0_rec_train.tar
)
|
| german_mobile_v2.0_rec | ppocr/utils/dict/german_dict.txt |德文识别|
[
rec_german_lite_train.yml
](
../../configs/rec/multi_language/rec_german_lite_train.yml
)
|2.65M|
[
推理模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/multilingual/german_mobile_v2.0_rec_infer.tar
)
/
[
训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/multilingual/german_mobile_v2.0_rec_train.tar
)
|
| korean_mobile_v2.0_rec | ppocr/utils/dict/korean_dict.txt |韩文识别|
[
rec_korean_lite_train.yml
](
../../configs/rec/multi_language/rec_korean_lite_train.yml
)
|3.9M|
[
推理模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/multilingual/korean_mobile_v2.0_rec_infer.tar
)
/
[
训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/multilingual/korean_mobile_v2.0_rec_train.tar
)
|
| japan_mobile_v2.0_rec | ppocr/utils/dict/japan_dict.txt |日文识别|
[
rec_japan_lite_train.yml
](
../../configs/rec/multi_language/rec_japan_lite_train.yml
)
|4.23M|
[
推理模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/multilingual/japan_mobile_v2.0_rec_infer.tar
)
/
[
训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/multilingual/japan_mobile_v2.0_rec_train.tar
)
|
| chinese_cht_mobile_v2.0_rec | ppocr/utils/dict/chinese_cht_dict.txt | 中文繁体识别|rec_chinese_cht_lite_train.yml|5.63M|
[
推理模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/multilingual/chinese_cht_mobile_v2.0_rec_infer.tar
)
/
[
训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/multilingual/chinese_cht_mobile_v2.0_rec_train.tar
)
|
| te_mobile_v2.0_rec | ppocr/utils/dict/te_dict.txt | 泰卢固文识别|rec_te_lite_train.yml|2.63M|
[
推理模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/multilingual/te_mobile_v2.0_rec_infer.tar
)
/
[
训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/multilingual/te_mobile_v2.0_rec_train.tar
)
|
| ka_mobile_v2.0_rec | ppocr/utils/dict/ka_dict.txt |卡纳达文识别|rec_ka_lite_train.yml|2.63M|
[
推理模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/multilingual/ka_mobile_v2.0_rec_infer.tar
)
/
[
训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/multilingual/ka_mobile_v2.0_rec_train.tar
)
|
| ta_mobile_v2.0_rec | ppocr/utils/dict/ta_dict.txt |泰米尔文识别|rec_ta_lite_train.yml|2.63M|
[
推理模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/multilingual/ta_mobile_v2.0_rec_infer.tar
)
/
[
训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/multilingual/ta_mobile_v2.0_rec_train.tar
)
|
| latin_mobile_v2.0_rec | ppocr/utils/dict/latin_dict.txt | 拉丁文识别 |
[
rec_latin_lite_train.yml
](
../../configs/rec/multi_language/rec_latin_lite_train.yml
)
|2.6M|
[
推理模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/multilingual/latin_ppocr_mobile_v2.0_rec_infer.tar
)
/
[
训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/multilingual/latin_ppocr_mobile_v2.0_rec_train.tar
)
|
| arabic_mobile_v2.0_rec | ppocr/utils/dict/arabic_dict.txt | 阿拉伯字母 |
[
rec_arabic_lite_train.yml
](
../../configs/rec/multi_language/rec_arabic_lite_train.yml
)
|2.6M|
[
推理模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/multilingual/arabic_ppocr_mobile_v2.0_rec_infer.tar
)
/
[
训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/multilingual/arabic_ppocr_mobile_v2.0_rec_train.tar
)
|
| cyrillic_mobile_v2.0_rec | ppocr/utils/dict/cyrillic_dict.txt | 斯拉夫字母 |
[
rec_cyrillic_lite_train.yml
](
../../configs/rec/multi_language/rec_cyrillic_lite_train.yml
)
|2.6M|
[
推理模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/multilingual/cyrillic_ppocr_mobile_v2.0_rec_infer.tar
)
/
[
训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/multilingual/cyrillic_ppocr_mobile_v2.0_rec_train.tar
)
|
| devanagari_mobile_v2.0_rec | ppocr/utils/dict/devanagari_dict.txt |梵文字母 |
[
rec_devanagari_lite_train.yml
](
../../configs/rec/multi_language/rec_devanagari_lite_train.yml
)
|2.6M|
[
推理模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/multilingual/devanagari_ppocr_mobile_v2.0_rec_infer.tar
)
/
[
训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/multilingual/devanagari_ppocr_mobile_v2.0_rec_train.tar
)
|
| korean_PP-OCRv3_rec | ppocr/utils/dict/korean_dict.txt |韩文识别|
[
korean_PP-OCRv3_rec.yml
](
../../configs/rec/PP-OCRv3/multi_language/korean_PP-OCRv3_rec.yml
)
|11M|
[
推理模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/multilingual/korean_PP-OCRv3_rec_infer.tar
)
/
[
训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/multilingual/korean_PP-OCRv3_rec_train.tar
)
|
| japan_PP-OCRv3_rec | ppocr/utils/dict/japan_dict.txt |日文识别|
[
japan_PP-OCRv3_rec.yml
](
../../configs/rec/PP-OCRv3/multi_language/japan_PP-OCRv3_rec.yml
)
|11M|
[
推理模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/multilingual/japan_PP-OCRv3_rec_infer.tar
)
/
[
训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/multilingual/japan_PP-OCRv3_rec_train.tar
)
|
| chinese_cht_PP-OCRv3_rec | ppocr/utils/dict/chinese_cht_dict.txt | 中文繁体识别|
[
chinese_cht_PP-OCRv3_rec.yml
](
../../configs/rec/PP-OCRv3/multi_language/chinese_cht_PP-OCRv3_rec.yml
)
|12M|
[
推理模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/multilingual/chinese_cht_PP-OCRv3_rec_infer.tar
)
/
[
训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/multilingual/chinese_cht_PP-OCRv3_rec_train.tar
)
|
| te_PP-OCRv3_rec | ppocr/utils/dict/te_dict.txt | 泰卢固文识别|
[
te_PP-OCRv3_rec.yml
](
../../configs/rec/PP-OCRv3/multi_language/te_PP-OCRv3_rec.yml
)
|9.6M|
[
推理模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/multilingual/te_PP-OCRv3_rec_infer.tar
)
/
[
训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/multilingual/te_PP-OCRv3_rec_train.tar
)
|
| ka_PP-OCRv3_rec | ppocr/utils/dict/ka_dict.txt |卡纳达文识别|
[
ka_PP-OCRv3_rec.yml
](
../../configs/rec/PP-OCRv3/multi_language/ka_PP-OCRv3_rec.yml
)
|9.9M|
[
推理模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/multilingual/ka_PP-OCRv3_rec_infer.tar
)
/
[
训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/multilingual/ka_PP-OCRv3_rec_train.tar
)
|
| ta_PP-OCRv3_rec | ppocr/utils/dict/ta_dict.txt |泰米尔文识别|
[
ta_PP-OCRv3_rec.yml
](
../../configs/rec/PP-OCRv3/multi_language/ta_PP-OCRv3_rec.yml
)
|9.6M|
[
推理模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/multilingual/ta_PP-OCRv3_rec_infer.tar
)
/
[
训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/multilingual/ta_PP-OCRv3_rec_train.tar
)
|
| latin_PP-OCRv3_rec | ppocr/utils/dict/latin_dict.txt | 拉丁文识别 |
[
latin_PP-OCRv3_rec.yml
](
../../configs/rec/PP-OCRv3/multi_language/latin_PP-OCRv3_rec.yml
)
|9.6M|
[
推理模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/multilingual/latin_ppocr_PP-OCRv3_rec_infer.tar
)
/
[
训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/multilingual/latin_ppocr_PP-OCRv3_rec_train.tar
)
|
| arabic_PP-OCRv3_rec | ppocr/utils/dict/arabic_dict.txt | 阿拉伯字母 |
[
arabic_PP-OCRv3_rec.yml
](
../../configs/rec/PP-OCRv3/multi_language/rec_arabic_lite_train.yml
)
|9.6M|
[
推理模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/multilingual/arabic_ppocr_PP-OCRv3_rec_infer.tar
)
/
[
训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/multilingual/arabic_ppocr_PP-OCRv3_rec_train.tar
)
|
| cyrillic_PP-OCRv3_rec | ppocr/utils/dict/cyrillic_dict.txt | 斯拉夫字母 |
[
cyrillic_PP-OCRv3_rec.yml
](
../../configs/rec/PP-OCRv3/multi_language/cyrillic_PP-OCRv3_rec.yml
)
|9.6M|
[
推理模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/multilingual/cyrillic_ppocr_PP-OCRv3_rec_infer.tar
)
/
[
训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/multilingual/cyrillic_ppocr_PP-OCRv3_rec_train.tar
)
|
| devanagari_PP-OCRv3_rec | ppocr/utils/dict/devanagari_dict.txt |梵文字母 |
[
devanagari_PP-OCRv3_rec.yml
](
../../configs/rec/PP-OCRv3/multi_language/devanagari_PP-OCRv3_rec.yml
)
|9.6M|
[
推理模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/multilingual/devanagari_ppocr_PP-OCRv3_rec_infer.tar
)
/
[
训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/multilingual/devanagari_ppocr_PP-OCRv3_rec_train.tar
)
|
更多支持语种请参考:
[
多语言模型
](
./multi_languages.md
)
...
...
doc/doc_ch/multi_languages.md
View file @
80aced81
...
...
@@ -176,8 +176,62 @@ ppocr 还支持方向分类, 更多使用方式请参考:[whl包使用说明
ppocr 支持使用自己的数据进行自定义训练或finetune, 其中识别模型可以参考
[
法语配置文件
](
../../configs/rec/multi_language/rec_french_lite_train.yml
)
修改训练数据路径、字典等参数。
具体数据准备、训练过程可参考:
[
文本检测
](
../doc_ch/detection.md
)
、
[
文本识别
](
../doc_ch/recognition.md
)
,更多功能如预测部署、
数据标注等功能可以阅读完整的
[
文档教程
](
../../README_ch.md
)
。
详细数据准备、训练过程可参考:
[
文本识别
](
../doc_ch/recognition.md
)
、
[
文本检测
](
../doc_ch/detection.md
)
。
假设已经准备好了训练数据,可根据以下步骤快速启动训练:
-
修改配置文件
以
`rec_french_lite_train.yml`
为例:
```
Global:
...
# 添加自定义字典,如修改字典请将路径指向新字典
character_dict_path: ./ppocr/utils/dict/french_dict.txt
...
# 识别空格
use_space_char: True
...
Train:
dataset:
# 数据集格式,支持LMDBDataSet以及SimpleDataSet
name: SimpleDataSet
# 数据集路径
data_dir: ./train_data/
# 训练集标签文件
label_file_list: ["./train_data/french_train.txt"]
...
Eval:
dataset:
# 数据集格式,支持LMDBDataSet以及SimpleDataSet
name: SimpleDataSet
# 数据集路径
data_dir: ./train_data
# 验证集标签文件
label_file_list: ["./train_data/french_val.txt"]
...
```
-
启动训练:
```
# 下载预训练模型
wget https://paddleocr.bj.bcebos.com/dygraph_v2.0/multilingual/french_mobile_v2.0_rec_train.tar
tar -xf french_mobile_v2.0_rec_train.tar
#加载预训练模型 单卡训练
python3 tools/train.py -c configs/rec/rec_french_lite_train.yml -o Global.pretrained_model=french_mobile_v2.0_rec_train/best_accuracy
#加载预训练模型 多卡训练,通过--gpus参数指定卡号
python3 -m paddle.distributed.launch --gpus '0,1,2,3' tools/train.py -c configs/rec/rec_french_lite_train.yml -o Global.pretrained_model=french_mobile_v2.0_rec_train/best_accuracy
```
更多功能如预测部署、数据标注等功能可以阅读完整的
[
文档教程
](
../../README_ch.md
)
。
<a
name=
"预测部署"
></a>
## 4 预测部署
...
...
doc/doc_ch/ppocr_introduction.md
View file @
80aced81
...
...
@@ -34,14 +34,23 @@ PP-OCR从骨干网络选择和调整、预测头部的设计、数据增强、
#### PP-OCRv2
PP-OCRv2在PP-OCR的基础上,进一步在5个方面重点优化,检测模型采用CML协同互学习知识蒸馏策略和CopyPaste数据增广策略;识别模型采用LCNet轻量级骨干网络、UDML 改进知识蒸馏策略和
[
Enhanced CTC loss
](
./
doc/doc_ch/
enhanced_ctc_loss.md
)
损失函数改进(如上图红框所示),进一步在推理速度和预测效果上取得明显提升。更多细节请参考PP-OCRv2
[
技术报告
](
https://arxiv.org/abs/2109.03144
)
。
PP-OCRv2在PP-OCR的基础上,进一步在5个方面重点优化,检测模型采用CML协同互学习知识蒸馏策略和CopyPaste数据增广策略;识别模型采用LCNet轻量级骨干网络、UDML 改进知识蒸馏策略和
[
Enhanced CTC loss
](
./enhanced_ctc_loss.md
)
损失函数改进(如上图红框所示),进一步在推理速度和预测效果上取得明显提升。更多细节请参考PP-OCRv2
[
技术报告
](
https://arxiv.org/abs/2109.03144
)
。
#### PP-OCRv3
PP-OCRv3在PP-OCRv2的基础上进一步升级。检测模型仍然基于DB算法,优化策略采用了带残差注意力机制的FPN结构RSEFPN、增大感受野的PAN结构LKPAN、基于DML训练的更优的教师模型;识别模型将base模型从CRNN替换成了IJCAI 2022论文
[
SVTR
](
https://arxiv.org/abs/2205.00159
)
,并采用SVTR轻量化、带指导训练CTC、数据增广策略RecConAug、自监督训练的更好的预训练模型、无标签数据的使用进行模型加速和效果提升。更多细节请参考PP-OCRv3
[
技术报告
](
./PP-OCRv3_introduction.md
)
。
PP-OCRv3系统pipeline如下:
<div
align=
"center"
>
<img
src=
"../ppocrv3_framework.png"
width=
"800"
>
</div>
<a
name=
"2"
></a>
## 2. 特性
-
超轻量PP-OCRv3系列:检测(3.6M)+ 方向分类器(1.4M)+ 识别(12M)= 17.0M
-
超轻量PP-OCRv2系列:检测(3.1M)+ 方向分类器(1.4M)+ 识别(8.5M)= 13.0M
-
超轻量PP-OCR mobile移动端系列:检测(3.0M)+方向分类器(1.4M)+ 识别(5.0M)= 9.4M
-
通用PP-OCR server系列:检测(47.1M)+方向分类器(1.4M)+ 识别(94.9M)= 143.4M
...
...
@@ -68,13 +77,13 @@ PP-OCRv2在PP-OCR的基础上,进一步在5个方面重点优化,检测模
<img
src=
"../imgs_results/ch_ppocr_mobile_v2.0/00056221.jpg"
width=
"800"
>
<img
src=
"../imgs_results/ch_ppocr_mobile_v2.0/rotate_00052204.jpg"
width=
"800"
>
</div>
</details>
<details
open
>
<summary>
PP-OCRv2 英文模型
</summary>
<div
align=
"center"
>
<img
src=
"../imgs_results/ch_ppocr_mobile_v2.0/img_12.jpg"
width=
"800"
>
</div>
...
...
@@ -84,15 +93,15 @@ PP-OCRv2在PP-OCR的基础上,进一步在5个方面重点优化,检测模
<details
open
>
<summary>
PP-OCRv2 其他语言模型
</summary>
<div
align=
"center"
>
<img
src=
"../imgs_results/french_0.jpg"
width=
"800"
>
<img
src=
"../imgs_results/korean.jpg"
width=
"800"
>
</div>
</details>
<a
name=
"5"
></a>
## 5. 使用教程
...
...
@@ -115,8 +124,10 @@ PP-OCR中英文模型列表如下:
| 模型简介 | 模型名称 | 推荐场景 | 检测模型 | 方向分类器 | 识别模型 |
| ------------------------------------- | ----------------------- | --------------- | ------------------------------------------------------------ | ------------------------------------------------------------ | ------------------------------------------------------------ |
| 中英文超轻量PP-OCRv2模型(13.0M) | ch_PP-OCRv2_xx | 移动端&服务器端 |
[
推理模型
](
https://paddleocr.bj.bcebos.com/PP-OCRv2/chinese/ch_PP-OCRv2_det_infer.tar
)
/
[
训练模型
](
https://paddleocr.bj.bcebos.com/PP-OCRv2/chinese/ch_PP-OCRv2_det_distill_train.tar
)
|
[
推理模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_mobile_v2.0_cls_infer.tar
)
/
[
预训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_mobile_v2.0_cls_train.tar
)
|
[
推理模型
](
https://paddleocr.bj.bcebos.com/PP-OCRv2/chinese/ch_PP-OCRv2_rec_infer.tar
)
/
[
训练模型
](
https://paddleocr.bj.bcebos.com/PP-OCRv2/chinese/ch_PP-OCRv2_rec_train.tar
)
|
| 中英文超轻量PP-OCRv3模型(16.2M) | ch_PP-OCRv3_xx | 移动端&服务器端 |
[
推理模型
](
https://paddleocr.bj.bcebos.com/PP-OCRv3/chinese/ch_PP-OCRv3_det_infer.tar
)
/
[
训练模型
](
https://paddleocr.bj.bcebos.com/PP-OCRv3/chinese/ch_PP-OCRv3_det_distill_train.tar
)
|
[
推理模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_mobile_v2.0_cls_infer.tar
)
/
[
训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_mobile_v2.0_cls_train.tar
)
|
[
推理模型
](
https://paddleocr.bj.bcebos.com/PP-OCRv3/chinese/ch_PP-OCRv3_rec_infer.tar
)
/
[
训练模型
](
https://paddleocr.bj.bcebos.com/PP-OCRv3/chinese/ch_PP-OCRv3_rec_train.tar
)
|
| 英文超轻量PP-OCRv3模型(13.4M) | en_PP-OCRv3_xx | 移动端&服务器端 |
[
推理模型
](
https://paddleocr.bj.bcebos.com/PP-OCRv3/english/en_PP-OCRv3_det_infer.tar
)
/
[
训练模型
](
https://paddleocr.bj.bcebos.com/PP-OCRv3/english/en_PP-OCRv3_det_distill_train.tar
)
|
[
推理模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_mobile_v2.0_cls_infer.tar
)
/
[
训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_mobile_v2.0_cls_train.tar
)
|
[
推理模型
](
https://paddleocr.bj.bcebos.com/PP-OCRv3/english/en_PP-OCRv3_rec_infer.tar
)
/
[
训练模型
](
https://paddleocr.bj.bcebos.com/PP-OCRv3/english/en_PP-OCRv3_rec_train.tar
)
|
| 中英文超轻量PP-OCRv2模型(13.0M) | ch_PP-OCRv2_xx | 移动端&服务器端 |
[
推理模型
](
https://paddleocr.bj.bcebos.com/PP-OCRv2/chinese/ch_PP-OCRv2_det_infer.tar
)
/
[
训练模型
](
https://paddleocr.bj.bcebos.com/PP-OCRv2/chinese/ch_PP-OCRv2_det_distill_train.tar
)
|
[
推理模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_mobile_v2.0_cls_infer.tar
)
/
[
训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_mobile_v2.0_cls_train.tar
)
|
[
推理模型
](
https://paddleocr.bj.bcebos.com/PP-OCRv2/chinese/ch_PP-OCRv2_rec_infer.tar
)
/
[
训练模型
](
https://paddleocr.bj.bcebos.com/PP-OCRv2/chinese/ch_PP-OCRv2_rec_train.tar
)
|
| 中英文超轻量PP-OCR mobile模型(9.4M) | ch_ppocr_mobile_v2.0_xx | 移动端&服务器端 |
[
推理模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_mobile_v2.0_det_infer.tar
)
/
[
预训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_mobile_v2.0_det_train.tar
)
|
[
推理模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_mobile_v2.0_cls_infer.tar
)
/
[
预训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_mobile_v2.0_cls_train.tar
)
|
[
推理模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_mobile_v2.0_rec_infer.tar
)
/
[
预训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_mobile_v2.0_rec_pre.tar
)
|
| 中英文通用PP-OCR server模型(143.4M) | ch_ppocr_server_v2.0_xx | 服务器端 |
[
推理模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_server_v2.0_det_infer.tar
)
/
[
预训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_server_v2.0_det_train.tar
)
|
[
推理模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_mobile_v2.0_cls_infer.tar
)
/
[
预训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_mobile_v2.0_cls_train.tar
)
|
[
推理模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_server_v2.0_rec_infer.tar
)
/
[
预训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_server_v2.0_rec_pre.tar
)
|
更多模型下载(包括英文数字模型、多语言模型、Paddle-Lite模型等),可以参考
[
PP-OCR 系列模型下载
](
./models_list.md
)
。
\ No newline at end of file
更多模型下载(包括英文数字模型、多语言模型、Paddle-Lite模型等),可以参考
[
PP-OCR 系列模型下载
](
./models_list.md
)
。
doc/doc_ch/quickstart.md
View file @
80aced81
...
...
@@ -59,21 +59,21 @@ cd /path/to/ppocr_img
如果不使用提供的测试图片,可以将下方
`--image_dir`
参数替换为相应的测试图片路径。
**注意**
whl包默认使用
`PP-OCRv3`
模型,识别模型使用的输入shape为
`3,48,320`
, 因此如果使用识别功能,需要添加参数
`--rec_image_shape 3,48,320`
,如果不使用默认的
`PP-OCRv3`
模型,则无需设置该参数。
<a
name=
"211"
></a>
#### 2.1.1 中英文模型
*
检测+方向分类器+识别全流程:
`--use_angle_cls true`
设置使用方向分类器识别180度旋转文字,
`--use_gpu false`
设置不使用GPU
```
bash
paddleocr
--image_dir
./imgs/11.jpg
--use_angle_cls
true
--use_gpu
false
paddleocr
--image_dir
./imgs/11.jpg
--use_angle_cls
true
--use_gpu
false
--rec_image_shape
3,48,320
```
结果是一个list,每个item包含了文本框,文字和识别置信度
```
bash
[[[
24.0, 36.0],
[
304.0, 34.0],
[
304.0, 72.0],
[
24.0, 74.0]],
[
'纯臻营养护发素'
, 0.964739]]
[[[
24.0, 80.0],
[
172.0, 80.0],
[
172.0, 104.0],
[
24.0, 104.0]],
[
'产品信息/参数'
, 0.98069626]]
[[[
24.0, 109.0],
[
333.0, 109.0],
[
333.0, 136.0],
[
24.0, 136.0]],
[
'(45元/每公斤,100公斤起订)'
, 0.9676722]]
[[[
28.0, 37.0],
[
302.0, 39.0],
[
302.0, 72.0],
[
27.0, 70.0]],
(
'纯臻营养护发素'
, 0.9658738374710083
)]
......
```
...
...
@@ -86,35 +86,34 @@ cd /path/to/ppocr_img
结果是一个list,每个item只包含文本框
```
bash
[[
26.0, 457.0],
[
137.0, 457.0],
[
137.0, 477.0],
[
26.0, 477.0]]
[[
25.0, 425.0],
[
372.0, 425.0],
[
372.0, 448.0],
[
25.0, 448.0]]
[[
128.0, 397.0],
[
273.0, 397.0],
[
273.0, 414.0],
[
128.0, 414.0]]
[[
27.0, 459.0],
[
136.0, 459.0],
[
136.0, 479.0],
[
27.0, 479.0]]
[[
28.0, 429.0],
[
372.0, 429.0],
[
372.0, 445.0],
[
28.0, 445.0]]
......
```
-
单独使用识别:设置
`--det`
为
`false`
```
bash
paddleocr
--image_dir
./imgs_words/ch/word_1.jpg
--det
false
paddleocr
--image_dir
./imgs_words/ch/word_1.jpg
--det
false
--rec_image_shape
3,48,320
```
结果是一个list,每个item只包含识别结果和识别置信度
```
bash
[
'韩国小馆'
, 0.99
07421
]
[
'韩国小馆'
, 0.99
4467
]
```
如需使用2.0模型,请指定参数
`--version PP-OCR`
,paddleocr默认使用
2.1
模型(
`--versioin PP-OCRv
2
`
)。更多whl包使用可参考
[
whl包文档
](
./whl.md
)
如需使用2.0模型,请指定参数
`--version PP-OCR`
,paddleocr默认使用
PP-OCRv3
模型(
`--versioin PP-OCRv
3
`
)。更多whl包使用可参考
[
whl包文档
](
./whl.md
)
<a
name=
"212"
></a>
#### 2.1.2 多语言模型
Paddleocr目前支持80个语种,可以通过修改
`--lang`
参数进行切换,对于英文模型,指定
`--lang=en`
。
Paddleocr目前支持80个语种,可以通过修改
`--lang`
参数进行切换,对于英文模型,指定
`--lang=en`
, PP-OCRv3目前只支持中文和英文模型,其他多语言模型会陆续更新
。
```
bash
paddleocr
--image_dir
./imgs_en/254.jpg
--lang
=
en
paddleocr
--image_dir
./imgs_en/254.jpg
--lang
=
en
--rec_image_shape
3,48,320
```
<div
align=
"center"
>
...
...
@@ -125,13 +124,9 @@ paddleocr --image_dir ./imgs_en/254.jpg --lang=en
结果是一个list,每个item包含了文本框,文字和识别置信度
```
text
[('PHO CAPITAL', 0.95723116), [[66.0, 50.0], [327.0, 44.0], [327.0, 76.0], [67.0, 82.0]]]
[('107 State Street', 0.96311164), [[72.0, 90.0], [451.0, 84.0], [452.0, 116.0], [73.0, 121.0]]]
[('Montpelier Vermont', 0.97389287), [[69.0, 132.0], [501.0, 126.0], [501.0, 158.0], [70.0, 164.0]]]
[('8022256183', 0.99810505), [[71.0, 175.0], [363.0, 170.0], [364.0, 202.0], [72.0, 207.0]]]
[('REG 07-24-201706:59 PM', 0.93537045), [[73.0, 299.0], [653.0, 281.0], [654.0, 318.0], [74.0, 336.0]]]
[('045555', 0.99346405), [[509.0, 331.0], [651.0, 325.0], [652.0, 356.0], [511.0, 362.0]]]
[('CT1', 0.9988654), [[535.0, 367.0], [654.0, 367.0], [654.0, 406.0], [535.0, 406.0]]]
[[[67.0, 51.0], [327.0, 46.0], [327.0, 74.0], [68.0, 80.0]], ('PHOCAPITAL', 0.9944712519645691)]
[[[72.0, 92.0], [453.0, 84.0], [454.0, 114.0], [73.0, 122.0]], ('107 State Street', 0.9744491577148438)]
[[[69.0, 135.0], [501.0, 125.0], [501.0, 156.0], [70.0, 165.0]], ('Montpelier Vermont', 0.9357033967971802)]
......
```
...
...
@@ -181,9 +176,7 @@ im_show.save('result.jpg')
结果是一个list,每个item包含了文本框,文字和识别置信度
```
bash
[[[
24.0, 36.0],
[
304.0, 34.0],
[
304.0, 72.0],
[
24.0, 74.0]],
[
'纯臻营养护发素'
, 0.964739]]
[[[
24.0, 80.0],
[
172.0, 80.0],
[
172.0, 104.0],
[
24.0, 104.0]],
[
'产品信息/参数'
, 0.98069626]]
[[[
24.0, 109.0],
[
333.0, 109.0],
[
333.0, 136.0],
[
24.0, 136.0]],
[
'(45元/每公斤,100公斤起订)'
, 0.9676722]]
[[[
28.0, 37.0],
[
302.0, 39.0],
[
302.0, 72.0],
[
27.0, 70.0]],
(
'纯臻营养护发素'
, 0.9658738374710083
)]
......
```
...
...
doc/doc_ch/recognition.md
View file @
80aced81
...
...
@@ -3,31 +3,30 @@
本文提供了PaddleOCR文本识别任务的全流程指南,包括数据准备、模型训练、调优、评估、预测,各个阶段的详细说明:
-
[
1. 数据准备
](
#1-数据准备
)
*
[
1.1 自定义数据集
](
#11-自定义数据集
)
*
[
1.2 数据下载
](
#12-数据下载
)
*
[
1.3 字典
](
#13-字典
)
*
[
1.4 添加空格类别
](
#14-添加空格类别
)
*
[
1.5 数据增强
](
#15-数据增强
)
-
[
1.1. 准备数据集
](
#11-准备数据集
)
-
[
1.2. 自定义数据集
](
#12-自定义数据集
)
-
[
1.3. 数据下载
](
#13-数据下载
)
-
[
1.4. 字典
](
#14-字典
)
-
[
1.5. 添加空格类别
](
#15-添加空格类别
)
-
[
1.6. 数据增强
](
#16-数据增强
)
-
[
2. 开始训练
](
#2-开始训练
)
*
[
2.1 启动训练
](
#21-
----
)
*
[
2.2 断点训练
](
#22-
----
)
*
[
2.3 更换Backbone 训练
](
#23-
--
backbone-
--
)
*
[
2.4 混合精度训练
](
#24-
--amp---
)
*
[
2.5 分布式训练
](
#25-
--fleet---
)
*
[
2.6 知识蒸馏训练
](
#26-
--distill---
)
*
[
2.7 多语言模型训练
](
#27-多语言模型训练
)
*
[
2.8 其他训练环境
(Windows/macOS/Linux DCU)
](
#28---other---
)
-
[
3. 模型评估与预测
](
#3-
-------
)
*
[
3.1 指标评估
](
#31-
----
)
*
[
3.2 测试识别效果
](
#32-
------
)
-
[
4. 模型导出与预测
](
#4-
-------
)
-
[
2.1
.
启动训练
](
#21-
启动训练
)
-
[
2.2
.
断点训练
](
#22-
断点训练
)
-
[
2.3
.
更换Backbone 训练
](
#23-
更换
backbone-
训练
)
-
[
2.4
.
混合精度训练
](
#24-
混合精度训练
)
-
[
2.5
.
分布式训练
](
#25-
分布式训练
)
-
[
2.6
.
知识蒸馏训练
](
#26-
知识蒸馏训练
)
-
[
2.7
.
多语言模型训练
](
#27-多语言模型训练
)
-
[
2.8
.
其他训练环境
](
#28-其他训练环境
)
-
[
3. 模型评估与预测
](
#3-
模型评估与预测
)
-
[
3.1
.
指标评估
](
#31-
指标评估
)
-
[
3.2
.
测试识别效果
](
#32-
测试识别效果
)
-
[
4. 模型导出与预测
](
#4-
模型导出与预测
)
-
[
5. FAQ
](
#5-faq
)
<a
name=
"1-数据准备"
></a>
# 1. 数据准备
##
#
1.1 准备数据集
## 1.1
.
准备数据集
PaddleOCR 支持两种数据格式:
-
`lmdb`
用于训练以lmdb格式存储的数据集(LMDBDataSet);
...
...
@@ -42,8 +41,8 @@ ln -sf <path/to/dataset> <path/to/paddle_ocr>/train_data/dataset
mklink /d <path/to/paddle_ocr>/train_data/dataset <path/to/dataset>
```
<a
name=
"11-自定义数据集"
></a>
## 1.1 自定义数据集
## 1.2. 自定义数据集
下面以通用数据集为例, 介绍如何准备数据集:
*
训练集
...
...
@@ -98,15 +97,12 @@ train_data/rec/train/word_002.jpg 用科技让复杂的世界更简单
| ...
```
<a
name=
"12-数据下载"
></a>
## 1.2 数据下载
## 1.3. 数据下载
-
ICDAR2015
若您本地没有数据集,可以在官网下载
[
ICDAR2015
](
http://rrc.cvc.uab.es/?ch=4&com=downloads
)
数据,用于快速验证。也可以参考
[
DTRB
](
https://github.com/clovaai/deep-text-recognition-benchmark#download-lmdb-dataset-for-traininig-and-evaluation-from-here
)
,下载 benchmark 所需的lmdb格式数据集。
如果希望复现SAR的论文指标,需要下载
[
SynthAdd
](
https://pan.baidu.com/share/init?surl=uV0LtoNmcxbO-0YA7Ch4dg
)
, 提取码:627x。此外,真实数据集icdar2013, icdar2015, cocotext, IIIT5也作为训练数据的一部分。具体数据细节可以参考论文SAR。
如果你使用的是icdar2015的公开数据集,PaddleOCR 提供了一份用于训练 ICDAR2015 数据集的标签文件,通过以下方式下载:
```
...
...
@@ -132,9 +128,7 @@ python gen_label.py --mode="rec" --input_path="{path/of/origin/label}" --output_
*
[
百度网盘
](
https://pan.baidu.com/s/1bS_u207Rm7YbY33wOECKDA
)
提取码:frgi
*
[
google drive
](
https://drive.google.com/file/d/18cSWX7wXSy4G0tbKJ0d9PuIaiwRLHpjA/view
)
<a
name=
"13-字典"
></a>
## 1.3 字典
## 1.4. 字典
最后需要提供一个字典({word_dict_name}.txt),使模型在训练时,可以将所有出现的字符映射为字典的索引。
...
...
@@ -169,20 +163,19 @@ PaddleOCR内置了一部分字典,可以按需使用。
`ppocr/utils/en_dict.txt`
是一个包含96个字符的英文字典
目前的多语言模型仍处在demo阶段,会持续优化模型并补充语种,
**非常欢迎您为我们提供其他语言的字典和字体**
,
如您愿意可将字典文件提交至
[
dict
](
../../ppocr/utils/dict
)
,我们会在Repo中感谢您。
-
自定义字典
如需自定义dic文件,请在
`configs/rec/
rec_icdar15_train
.yml`
中添加
`character_dict_path`
字段, 指向您的字典路径。
如需自定义dic文件,请在
`configs/rec/
PP-OCRv3/en_PP-OCRv3_rec
.yml`
中添加
`character_dict_path`
字段, 指向您的字典路径。
<a
name=
"支持空格"
></a>
## 1.4 添加空格类别
## 1.5. 添加空格类别
如果希望支持识别"空格"类别, 请将yml文件中的
`use_space_char`
字段设置为
`True`
。
<a
name=
"数据增强"
></a>
## 1.5 数据增强
## 1.6. 数据增强
PaddleOCR提供了多种数据增强方式,默认配置文件中已经添加了数据增广。
...
...
@@ -192,23 +185,21 @@ PaddleOCR提供了多种数据增强方式,默认配置文件中已经添加
*由于OpenCV的兼容性问题,扰动操作暂时只支持Linux*
<a
name=
"开始训练"
></a>
# 2. 开始训练
PaddleOCR提供了训练脚本、评估脚本和预测脚本,本节将以
CRNN
识别模型为例:
PaddleOCR提供了训练脚本、评估脚本和预测脚本,本节将以
PP-OCRv3 英文
识别模型为例:
<a
name=
"启动训练"
></a>
## 2.1 启动训练
## 2.1. 启动训练
首先下载pretrain model,您可以下载训练好的模型在 icdar2015 数据上进行finetune
```
cd PaddleOCR/
# 下载
MobileNetV
3的预训练模型
wget -P ./pretrain_models/ https://paddleocr.bj.bcebos.com/
dygraph_v2.0/en/rec_mv3_none_bilstm_ctc_v2.0
_train.tar
# 下载
英文PP-OCRv
3的预训练模型
wget -P ./pretrain_models/ https://paddleocr.bj.bcebos.com/
PP-OCRv3/english/en_PP-OCRv3_rec
_train.tar
# 解压模型参数
cd pretrain_models
tar -xf
rec_mv3_none_bilstm_ctc_v2.0_train.tar && rm -rf rec_mv3_none_bilstm_ctc_v2.0
_train.tar
tar -xf
en_PP-OCRv3_rec_train.tar && rm -rf en_PP-OCRv3_rec
_train.tar
```
开始训练:
...
...
@@ -220,44 +211,23 @@ tar -xf rec_mv3_none_bilstm_ctc_v2.0_train.tar && rm -rf rec_mv3_none_bilstm_ctc
# 训练icdar15英文数据 训练日志会自动保存为 "{save_model_dir}" 下的train.log
#单卡训练(训练周期长,不建议)
python3 tools/train.py -c configs/rec/
rec_icdar15_train.yml
python3 tools/train.py -c configs/rec/
PP-OCRv3/en_PP-OCRv3_rec.yml -o Global.pretrained_model=./pretrain_models/en_PP-OCRv3_rec_train/best_accuracy
#多卡训练,通过--gpus参数指定卡号
python3 -m paddle.distributed.launch --gpus '0,1,2,3' tools/train.py -c configs/rec/
rec_icdar15_train.yml
python3 -m paddle.distributed.launch --gpus '0,1,2,3' tools/train.py -c configs/rec/
PP-OCRv3/en_PP-OCRv3_rec.yml -o Global.pretrained_model=./pretrain_models/en_PP-OCRv3_rec_train/best_accuracy
```
PaddleOCR支持训练和评估交替进行, 可以在
`configs/rec/
rec_icdar15_train
.yml`
中修改
`eval_batch_step`
设置评估频率,默认每500个iter评估一次。评估过程中默认将最佳acc模型,保存为
`output/
rec_CRNN
/best_accuracy`
。
PaddleOCR支持训练和评估交替进行, 可以在
`configs/rec/
PP-OCRv3/en_PP-OCRv3_rec
.yml`
中修改
`eval_batch_step`
设置评估频率,默认每500个iter评估一次。评估过程中默认将最佳acc模型,保存为
`output/
en_PP-OCRv3_rec
/best_accuracy`
。
如果验证集很大,测试将会比较耗时,建议减少评估次数,或训练完再进行评估。
**提示:**
可通过 -c 参数选择
`configs/rec/`
路径下的多种模型配置进行训练,PaddleOCR支持的识别算法有:
**提示:**
可通过 -c 参数选择
`configs/rec/`
路径下的多种模型配置进行训练,PaddleOCR支持的识别算法可以参考
[
前沿算法列表
](
https://github.com/PaddlePaddle/PaddleOCR/blob/dygraph/doc/doc_ch/algorithm_overview.md#12-%E6%96%87%E6%9C%AC%E8%AF%86%E5%88%AB%E7%AE%97%E6%B3%95
)
:
| 配置文件 | 算法名称 | backbone | trans | seq | pred |
| :--------: | :-------: | :-------: | :-------: | :-----: | :-----: |
|
[
rec_chinese_lite_train_v2.0.yml
](
../../configs/rec/ch_ppocr_v2.0/rec_chinese_lite_train_v2.0.yml
)
| CRNN | Mobilenet_v3 small 0.5 | None | BiLSTM | ctc |
|
[
rec_chinese_common_train_v2.0.yml
](
../../configs/rec/ch_ppocr_v2.0/rec_chinese_common_train_v2.0.yml
)
| CRNN | ResNet34_vd | None | BiLSTM | ctc |
| rec_icdar15_train.yml | CRNN | Mobilenet_v3 large 0.5 | None | BiLSTM | ctc |
| rec_mv3_none_bilstm_ctc.yml | CRNN | Mobilenet_v3 large 0.5 | None | BiLSTM | ctc |
| rec_mv3_none_none_ctc.yml | Rosetta | Mobilenet_v3 large 0.5 | None | None | ctc |
| rec_r34_vd_none_bilstm_ctc.yml | CRNN | Resnet34_vd | None | BiLSTM | ctc |
| rec_r34_vd_none_none_ctc.yml | Rosetta | Resnet34_vd | None | None | ctc |
| rec_mv3_tps_bilstm_att.yml | CRNN | Mobilenet_v3 | TPS | BiLSTM | att |
| rec_r34_vd_tps_bilstm_att.yml | CRNN | Resnet34_vd | TPS | BiLSTM | att |
| rec_r50fpn_vd_none_srn.yml | SRN | Resnet50_fpn_vd | None | rnn | srn |
| rec_mtb_nrtr.yml | NRTR | nrtr_mtb | None | transformer encoder | transformer decoder |
| rec_r31_sar.yml | SAR | ResNet31 | None | LSTM encoder | LSTM decoder |
| rec_resnet_stn_bilstm_att.yml | SEED | Aster_Resnet | STN | BiLSTM | att |
*
其中SEED模型需要额外加载FastText训练好的
[
语言模型
](
https://dl.fbaipublicfiles.com/fasttext/vectors-crawl/cc.en.300.bin.gz
)
,并且安装 fasttext 依赖:
```
python3.7 -m pip install fasttext==0.9.1
```
训练中文数据,推荐使用
[
rec_chinese_lite_train_v2.0.yml
](
../../configs/rec/ch_ppocr_v2.0/rec_chinese_lite_train_v2.0
.yml
)
,如您希望尝试其他算法在中文数据集上的效果,请参考下列说明修改配置文件:
训练中文数据,推荐使用
[
ch_PP-OCRv3_rec_distillation.yml
](
../../configs/rec/PP-OCRv3/ch_PP-OCRv3_rec_distillation
.yml
)
,如您希望尝试其他算法在中文数据集上的效果,请参考下列说明修改配置文件:
以
`
rec_chinese_lite_train_v2.0
.yml`
为例:
以
`
ch_PP-OCRv3_rec_distillation
.yml`
为例:
```
Global:
...
...
...
@@ -290,7 +260,7 @@ Train:
...
- RecResizeImg:
# 修改 image_shape 以适应长文本
image_shape: [3,
32
, 320]
image_shape: [3,
48
, 320]
...
loader:
...
...
...
@@ -310,7 +280,7 @@ Eval:
...
- RecResizeImg:
# 修改 image_shape 以适应长文本
image_shape: [3,
32
, 320]
image_shape: [3,
48
, 320]
...
loader:
# 单卡验证的batch_size
...
...
@@ -319,19 +289,16 @@ Eval:
```
**注意,预测/评估时的配置文件请务必与训练一致。**
<a
name=
"断点训练"
></a>
## 2.2 断点训练
## 2.2. 断点训练
如果训练程序中断,如果希望加载训练中断的模型从而恢复训练,可以通过指定Global.checkpoints指定要加载的模型路径:
```
shell
python3 tools/train.py
-c
configs/rec/
rec_icdar15_train
.yml
-o
Global.checkpoints
=
./your/trained/model
python3 tools/train.py
-c
configs/rec/
PP-OCRv3/en_PP-OCRv3_rec
.yml
-o
Global.checkpoints
=
./your/trained/model
```
**注意**
:
`Global.checkpoints`
的优先级高于
`Global.pretrained_model`
的优先级,即同时指定两个参数时,优先加载
`Global.checkpoints`
指定的模型,如果
`Global.checkpoints`
指定的模型路径有误,会加载
`Global.pretrained_model`
指定的模型。
<a
name=
"23---backbone---"
></a>
## 2.3 更换Backbone 训练
## 2.3. 更换Backbone 训练
PaddleOCR将网络划分为四部分,分别在
[
ppocr/modeling
](
../../ppocr/modeling
)
下。 进入网络的数据将按照顺序(transforms->backbones->necks->heads)依次通过这四个部分。
...
...
@@ -377,38 +344,32 @@ args1: args1
**注意**
:如果要更换网络的其他模块,可以参考
[
文档
](
./add_new_algorithm.md
)
。
<a
name=
"24---amp---"
></a>
## 2.4 混合精度训练
## 2.4. 混合精度训练
如果您想进一步加快训练速度,可以使用
[
自动混合精度训练
](
https://www.paddlepaddle.org.cn/documentation/docs/zh/guides/01_paddle2.0_introduction/basic_concept/amp_cn.html
)
, 以单机单卡为例,命令如下:
```
shell
python3 tools/train.py
-c
configs/rec/
rec_icdar15_train
.yml
\
-o
Global.pretrained_model
=
./pretrain_models/
rec_mv3_none_bilstm_ctc_v2.0_train
\
python3 tools/train.py
-c
configs/rec/
PP-OCRv3/en_PP-OCRv3_rec
.yml
\
-o
Global.pretrained_model
=
./pretrain_models/
en_PP-OCRv3_rec_train/best_accuracy
\
Global.use_amp
=
True Global.scale_loss
=
1024.0 Global.use_dynamic_loss_scaling
=
True
```
<a
name
=
"26---fleet---"
>
</a>
## 2.5 分布式训练
## 2.5. 分布式训练
多机多卡训练时,通过
`
--ips
`
参数设置使用的机器IP地址,通过
`
--gpus
`
参数设置使用的GPU ID:
```
bash
python3 -m paddle.distributed.launch --ips="xx.xx.xx.xx,xx.xx.xx.xx" --gpus '0,1,2,3' tools/train.py -c configs/rec/
rec_icdar15_train
.yml
\
-o Global.pretrained_model=./pretrain_models/
rec_mv3_none_bilstm_ctc_v2.0_train
python3 -m paddle.distributed.launch --ips="xx.xx.xx.xx,xx.xx.xx.xx" --gpus '0,1,2,3' tools/train.py -c configs/rec/
PP-OCRv3/en_PP-OCRv3_rec
.yml
\
-o Global.pretrained_model=./pretrain_models/
en_PP-OCRv3_rec_train/best_accuracy
```
**注意:** 采用多机多卡训练时,需要替换上面命令中的ips值为您机器的地址,机器之间需要能够相互ping通。另外,训练时需要在多个机器上分别启动命令。查看机器ip地址的命令为`ifconfig`。
<a name="26---distill---"></a>
## 2.6 知识蒸馏训练
## 2.6. 知识蒸馏训练
PaddleOCR支持了基于知识蒸馏的文本识别模型训练过程,更多内容可以参考[知识蒸馏说明文档](./knowledge_distillation.md)。
<a name="27-多语言模型训练"></a>
## 2.7 多语言模型训练
## 2.7. 多语言模型训练
PaddleOCR目前已支持80种(除中文外)语种识别,`configs/rec/multi_languages` 路径下提供了一个多语言的配置文件模版: [rec_multi_language_lite_train.yml](../../configs/rec/multi_language/rec_multi_language_lite_train.yml)。
...
...
@@ -464,8 +425,7 @@ Eval:
...
```
<a name="28---other---"></a>
## 2.8 其他训练环境
## 2.8. 其他训练环境
- Windows GPU/CPU
在Windows平台上与Linux平台略有不同:
...
...
@@ -478,28 +438,25 @@ Windows平台只支持`单卡`的训练与预测,指定GPU进行训练`set CUD
- Linux DCU
DCU设备上运行需要设置环境变量 `export HIP_VISIBLE_DEVICES=0,1,2,3`,其余训练评估预测命令与Linux GPU完全相同。
<a name="3--------"></a>
# 3. 模型评估与预测
<a name="31-----"></a>
## 3.1 指标评估
## 3.1. 指标评估
训练中模型参数默认保存在`Global.save_model_dir`目录下。在评估指标时,需要设置`Global.checkpoints`指向保存的参数文件。评估数据集可以通过 `configs/rec/PP-OCRv3/en_PP-OCRv3_rec.yml` 修改Eval中的 `label_file_path` 设置。
训练中模型参数默认保存在`Global.save_model_dir`目录下。在评估指标时,需要设置`Global.checkpoints`指向保存的参数文件。评估数据集可以通过 `configs/rec/rec_icdar15_train.yml` 修改Eval中的 `label_file_path` 设置。
```
# GPU 评估, Global.checkpoints 为待测权重
python3 -m paddle.distributed.launch --gpus '0' tools/eval.py -c configs/rec/
rec_icdar15_train
.yml -o Global.checkpoints={path/to/weights}/best_accuracy
python3 -m paddle.distributed.launch --gpus '0' tools/eval.py -c configs/rec/
PP-OCRv3/en_PP-OCRv3_rec
.yml -o Global.checkpoints={path/to/weights}/best_accuracy
```
<a name="32-------"></a>
## 3.2 测试识别效果
## 3.2. 测试识别效果
使用 PaddleOCR 训练好的模型,可以通过以下脚本进行快速预测。
默认预测图片存储在 `infer_img` 里,通过 `-o Global.checkpoints` 加载训练好的参数文件:
根据配置文件中设置的
的
`save_model_dir` 和 `save_epoch_step` 字段,会有以下几种参数被保存下来:
根据配置文件中设置的 `save_model_dir` 和 `save_epoch_step` 字段,会有以下几种参数被保存下来:
```
output/rec/
...
...
@@ -519,7 +476,7 @@ output/rec/
```
# 预测英文结果
python3 tools/infer_rec.py -c configs/rec/
rec_icdar15_train
.yml -o Global.pretrained_model={path/to/weights}/best_accuracy
Global.load_static_weights=false
Global.infer_img=doc/imgs_words/en/word_1.png
python3 tools/infer_rec.py -c configs/rec/
PP-OCRv3/en_PP-OCRv3_rec
.yml -o Global.pretrained_model={path/to/weights}/best_accuracy Global.infer_img=doc/imgs_words/en/word_1.png
```
预测图片:
...
...
@@ -538,7 +495,7 @@ infer_img: doc/imgs_words/en/word_1.png
```
# 预测中文结果
python3 tools/infer_rec.py -c configs/rec/ch_ppocr_v2.0/rec_chinese_lite_train_v2.0.yml -o Global.pretrained_model={path/to/weights}/best_accuracy
Global.load_static_weights=false
Global.infer_img=doc/imgs_words/ch/word_1.jpg
python3 tools/infer_rec.py -c configs/rec/ch_ppocr_v2.0/rec_chinese_lite_train_v2.0.yml -o Global.pretrained_model={path/to/weights}/best_accuracy Global.infer_img=doc/imgs_words/ch/word_1.jpg
```
预测图片:
...
...
@@ -552,8 +509,6 @@ infer_img: doc/imgs_words/ch/word_1.jpg
result: ('韩国小馆', 0.997218)
```
<a name="4--------"></a>
# 4. 模型导出与预测
inference 模型(`paddle.jit.save`保存的模型)
...
...
@@ -569,15 +524,15 @@ inference 模型(`paddle.jit.save`保存的模型)
# Global.pretrained_model 参数设置待转换的训练模型地址,不用添加文件后缀 .pdmodel,.pdopt或.pdparams。
# Global.save_inference_dir参数设置转换的模型将保存的地址。
python3 tools/export_model.py -c configs/rec/
ch_ppocr_v2.0/rec_chinese_lite_train_v2.0
.yml -o Global.pretrained_model=./
ch_lite/ch_ppocr_mobile_v2.0
_rec_train/best_accuracy Global.save_inference_dir=./inference/
rec_crnn
/
python3 tools/export_model.py -c configs/rec/
PP-OCRv3/en_PP-OCRv3_rec
.yml -o Global.pretrained_model=./
pretrain_models/en_PP-OCRv3
_rec_train/best_accuracy Global.save_inference_dir=./inference/
en_PP-OCRv3_rec
/
```
**注意:**如果您是在自己的数据集上训练的模型,并且调整了中文字符的字典文件,请注意修改配置文件中的`character_dict_path`
是否是所需要的
字典文件。
**注意:**如果您是在自己的数据集上训练的模型,并且调整了中文字符的字典文件,请注意修改配置文件中的`character_dict_path`
为自定义
字典文件。
转换成功后,在目录下有三个文件:
```
/
inference/
rec_crnn
/
inference/
en_PP-OCRv3_rec
/
├── inference.pdiparams # 识别inference模型的参数文件
├── inference.pdiparams.info # 识别inference模型的参数信息,可忽略
└── inference.pdmodel # 识别inference模型的program文件
...
...
@@ -588,11 +543,9 @@ python3 tools/export_model.py -c configs/rec/ch_ppocr_v2.0/rec_chinese_lite_trai
如果训练时修改了文本的字典,在使用inference模型预测时,需要通过`--rec_char_dict_path`指定使用的字典路径
```
python3 tools/infer/predict_rec.py --image_dir="./doc/imgs_words_en/word_336.png" --rec_model_dir="./your inference model" --rec_image_shape="3,
32, 10
0" --rec_char_dict_path="your text dict path"
python3 tools/infer/predict_rec.py --image_dir="./doc/imgs_words_en/word_336.png" --rec_model_dir="./your inference model" --rec_image_shape="3,
48, 32
0" --rec_char_dict_path="your text dict path"
```
<a name="5-faq"></a>
# 5. FAQ
Q1: 训练模型转inference 模型之后预测效果不一致?
...
...
Prev
1
2
3
4
5
6
7
8
Next
Write
Preview
Markdown
is supported
0%
Try again
or
attach a new file
.
Attach a file
Cancel
You are about to add
0
people
to the discussion. Proceed with caution.
Finish editing this message first!
Cancel
Please
register
or
sign in
to comment