Skip to content
GitLab
Menu
Projects
Groups
Snippets
Loading...
Help
Help
Support
Community forum
Keyboard shortcuts
?
Submit feedback
Contribute to GitLab
Sign in / Register
Toggle navigation
Menu
Open sidebar
wangsen
paddle_dbnet
Commits
006d84bf
Unverified
Commit
006d84bf
authored
Oct 21, 2021
by
崔浩
Committed by
GitHub
Oct 21, 2021
Browse files
Merge branch 'PaddlePaddle:dygraph' into dygraph
parents
302ca30c
8beeb84c
Changes
241
Hide whitespace changes
Inline
Side-by-side
Showing
20 changed files
with
1270 additions
and
287 deletions
+1270
-287
doc/doc_ch/config.md
doc/doc_ch/config.md
+109
-6
doc/doc_ch/detection.md
doc/doc_ch/detection.md
+126
-25
doc/doc_ch/enhanced_ctc_loss.md
doc/doc_ch/enhanced_ctc_loss.md
+78
-0
doc/doc_ch/environment.md
doc/doc_ch/environment.md
+331
-0
doc/doc_ch/equation_a_ctc.png
doc/doc_ch/equation_a_ctc.png
+0
-0
doc/doc_ch/equation_c_ctc.png
doc/doc_ch/equation_c_ctc.png
+0
-0
doc/doc_ch/equation_ctcloss.png
doc/doc_ch/equation_ctcloss.png
+0
-0
doc/doc_ch/equation_focal_ctc.png
doc/doc_ch/equation_focal_ctc.png
+0
-0
doc/doc_ch/focal_loss_formula.png
doc/doc_ch/focal_loss_formula.png
+0
-0
doc/doc_ch/focal_loss_image.png
doc/doc_ch/focal_loss_image.png
+0
-0
doc/doc_ch/inference.md
doc/doc_ch/inference.md
+7
-7
doc/doc_ch/inference_ppocr.md
doc/doc_ch/inference_ppocr.md
+136
-0
doc/doc_ch/knowledge_distillation.md
doc/doc_ch/knowledge_distillation.md
+34
-1
doc/doc_ch/models_and_config.md
doc/doc_ch/models_and_config.md
+47
-0
doc/doc_ch/models_list.md
doc/doc_ch/models_list.md
+15
-47
doc/doc_ch/multi_languages.md
doc/doc_ch/multi_languages.md
+2
-2
doc/doc_ch/paddleOCR_overview.md
doc/doc_ch/paddleOCR_overview.md
+33
-0
doc/doc_ch/quickstart.md
doc/doc_ch/quickstart.md
+227
-65
doc/doc_ch/rec_algo_compare.png
doc/doc_ch/rec_algo_compare.png
+0
-0
doc/doc_ch/recognition.md
doc/doc_ch/recognition.md
+125
-134
No files found.
doc/doc_ch/config.md
View file @
006d84bf
## 可选参数列表
# 配置文件内容与生成
*
[
1. 可选参数列表
](
#1
)
*
[
2. 配置文件参数介绍
](
#2
)
*
[
3. 多语言配置文件生成
](
#3
)
<a
name=
"1"
></a>
## 1. 可选参数列表
以下列表可以通过
`--help`
查看
...
...
@@ -7,8 +15,9 @@
| -c | ALL | 指定配置文件 | None |
**配置模块说明请参考 参数介绍**
|
| -o | ALL | 设置配置文件里的参数内容 | None | 使用-o配置相较于-c选择的配置文件具有更高的优先级。例如:
`-o Global.use_gpu=false`
|
<a
name=
"2"
></a>
## 配置文件参数介绍
##
2.
配置文件参数介绍
以
`rec_chinese_lite_train_v2.0.yml `
为例
### Global
...
...
@@ -28,10 +37,9 @@
| checkpoints | 加载模型参数路径 | None | 用于中断后加载参数继续训练 |
| use_visualdl | 设置是否启用visualdl进行可视化log展示 | False |
[
教程地址
](
https://www.paddlepaddle.org.cn/paddle/visualdl
)
|
| infer_img | 设置预测图像路径或文件夹路径 | ./infer_img |
\|
| character_dict_path | 设置字典路径 | ./ppocr/utils/ppocr_keys_v1.txt |
\
|
| character_dict_path | 设置字典路径 | ./ppocr/utils/ppocr_keys_v1.txt |
如果为空,则默认使用小写字母+数字作为字典
|
| max_text_length | 设置文本最大长度 | 25 |
\
|
| character_type | 设置字符类型 | ch | en/ch, en时将使用默认dict,ch时使用自定义dict|
| use_space_char | 设置是否识别空格 | True | 仅在 character_type=ch 时支持空格 |
| use_space_char | 设置是否识别空格 | True | |
| label_list | 设置方向分类器支持的角度 | ['0','180'] | 仅在方向分类器中生效 |
| save_res_path | 设置检测模型的结果保存地址 | ./output/det_db/predicts_db.txt | 仅在检测模型中生效 |
...
...
@@ -52,7 +60,7 @@
### Architecture ([ppocr/modeling](../../ppocr/modeling))
在
ppocr
中,网络被划分为Transform,Backbone,Neck和Head四个阶段
在
PaddleOCR
中,网络被划分为Transform,Backbone,Neck和Head四个阶段
| 字段 | 用途 | 默认值 | 备注 |
| :---------------------: | :---------------------: | :--------------: | :--------------------: |
...
...
@@ -121,3 +129,98 @@
| batch_size_per_card | 训练时单卡batch size | 256 |
\
|
| drop_last | 是否丢弃因数据集样本数不能被 batch_size 整除而产生的最后一个不完整的mini-batch | True |
\
|
| num_workers | 用于加载数据的子进程个数,若为0即为不开启子进程,在主进程中进行数据加载 | 8 |
\
|
<a
name=
"3"
></a>
## 3. 多语言配置文件生成
PaddleOCR目前已支持80种(除中文外)语种识别,
`configs/rec/multi_languages`
路径下提供了一个多语言的配置文件模版:
[
rec_multi_language_lite_train.yml
](
../../configs/rec/multi_language/rec_multi_language_lite_train.yml
)
。
您有两种方式创建所需的配置文件:
1.
通过脚本自动生成
[
generate_multi_language_configs.py
](
../../configs/rec/multi_language/generate_multi_language_configs.py
)
可以帮助您生成多语言模型的配置文件
-
以意大利语为例,如果您的数据是按如下格式准备的:
```
|-train_data
|- it_train.txt # 训练集标签
|- it_val.txt # 验证集标签
|- data
|- word_001.jpg
|- word_002.jpg
|- word_003.jpg
| ...
```
可以使用默认参数,生成配置文件:
```bash
# 该代码需要在指定目录运行
cd PaddleOCR/configs/rec/multi_language/
# 通过-l或者--language参数设置需要生成的语种的配置文件,该命令会将默认参数写入配置文件
python3 generate_multi_language_configs.py -l it
```
-
如果您的数据放置在其他位置,或希望使用自己的字典,可以通过指定相关参数来生成配置文件:
```bash
# -l或者--language字段是必须的
# --train修改训练集,--val修改验证集,--data_dir修改数据集目录,--dict修改字典路径, -o修改对应默认参数
cd PaddleOCR/configs/rec/multi_language/
python3 generate_multi_language_configs.py -l it \ # 语种
--train {path/of/train_label.txt} \ # 训练标签文件的路径
--val {path/of/val_label.txt} \ # 验证集标签文件的路径
--data_dir {train_data/path} \ # 训练数据的根目录
--dict {path/of/dict} \ # 字典文件路径
-o Global.use_gpu=False # 是否使用gpu
...
```
意大利文由拉丁字母组成,因此执行完命令后会得到名为 rec_latin_lite_train.yml 的配置文件。
2.
手动修改配置文件
您也可以手动修改模版中的以下几个字段得到配置文件:
```
Global:
use_gpu: True
epoch_num: 500
...
character_dict_path: {path/of/dict} # 字典文件所在路径
Train:
dataset:
name: SimpleDataSet
data_dir: train_data/ # 数据存放根目录
label_file_list: ["./train_data/train_list.txt"] # 训练集label路径
...
Eval:
dataset:
name: SimpleDataSet
data_dir: train_data/ # 数据存放根目录
label_file_list: ["./train_data/val_list.txt"] # 验证集label路径
...
```
目前PaddleOCR支持的多语言算法有:
| 配置文件 | 算法名称 | backbone | trans | seq | pred | language |
| :--------: | :-------: | :-------: | :-------: | :-----: | :-----: | :-----: |
| rec_chinese_cht_lite_train.yml | CRNN | Mobilenet_v3 small 0.5 | None | BiLSTM | ctc | 中文繁体 |
| rec_en_lite_train.yml | CRNN | Mobilenet_v3 small 0.5 | None | BiLSTM | ctc | 英语(区分大小写) |
| rec_french_lite_train.yml | CRNN | Mobilenet_v3 small 0.5 | None | BiLSTM | ctc | 法语 |
| rec_ger_lite_train.yml | CRNN | Mobilenet_v3 small 0.5 | None | BiLSTM | ctc | 德语 |
| rec_japan_lite_train.yml | CRNN | Mobilenet_v3 small 0.5 | None | BiLSTM | ctc | 日语 |
| rec_korean_lite_train.yml | CRNN | Mobilenet_v3 small 0.5 | None | BiLSTM | ctc | 韩语 |
| rec_latin_lite_train.yml | CRNN | Mobilenet_v3 small 0.5 | None | BiLSTM | ctc | 拉丁字母 |
| rec_arabic_lite_train.yml | CRNN | Mobilenet_v3 small 0.5 | None | BiLSTM | ctc | 阿拉伯字母 |
| rec_cyrillic_lite_train.yml | CRNN | Mobilenet_v3 small 0.5 | None | BiLSTM | ctc | 斯拉夫字母 |
| rec_devanagari_lite_train.yml | CRNN | Mobilenet_v3 small 0.5 | None | BiLSTM | ctc | 梵文字母 |
更多支持语种请参考:
[
多语言模型
](
https://github.com/PaddlePaddle/PaddleOCR/blob/release/2.1/doc/doc_ch/multi_languages.md#%E8%AF%AD%E7%A7%8D%E7%BC%A9%E5%86%99
)
doc/doc_ch/detection.md
View file @
006d84bf
# 文字检测
本节以icdar2015数据集为例,介绍PaddleOCR中检测模型的训练、评估与测试。
# 目录
-
[
1. 文字检测
](
#1-----
)
*
[
1.1 数据准备
](
#11-----
)
*
[
1.2 下载预训练模型
](
#12--------
)
*
[
1.3 启动训练
](
#13-----
)
*
[
1.4 断点训练
](
#14-----
)
*
[
1.5 更换Backbone 训练
](
#15---backbone---
)
*
[
1.6 指标评估
](
#16-----
)
*
[
1.7 测试检测效果
](
#17-------
)
*
[
1.8 转inference模型测试
](
#18--inference----
)
-
[
2. FAQ
](
#2-faq
)
## 数据准备
<a
name=
"1-----"
></a>
# 1. 文字检测
本节以icdar2015数据集为例,介绍PaddleOCR中检测模型训练、评估、测试的使用方式。
<a
name=
"11-----"
></a>
## 1.1 数据准备
icdar2015 TextLocalization数据集是文本检测的数据集,包含1000张训练图像和500张测试图像。
icdar2015数据集可以从
[
官网
](
https://rrc.cvc.uab.es/?ch=4&com=downloads
)
下载到,首次下载需注册。
注册完成登陆后,下载下图中红色框标出的部分,其中,
`Training Set Images`
下载的内容保存为
`icdar_c4_train_imgs`
文件夹下,
`Test Set Images`
下载的内容保存为
`ch4_test_images`
文件夹下
<p
align=
"center"
>
<img
src=
"../datasets/ic15_location_download.png"
align=
"middle"
width =
"700"
/>
<p
align=
"center"
>
将下载到的数据集解压到工作目录下,假设解压在 PaddleOCR/train_data/
下。另外,PaddleOCR将零散的标注文件整理成单独的标注文件
将下载到的数据集解压到工作目录下,假设解压在 PaddleOCR/train_data/下。另外,PaddleOCR将零散的标注文件整理成单独的标注文件
,您可以通过wget的方式进行下载。
```
shell
# 在PaddleOCR路径下
...
...
@@ -23,7 +46,7 @@ python gen_label.py --mode="det" --root_path="/path/to/icdar_c4_train_imgs/" \
--output_label="/path/to/train_icdar2015_label.txt"
```
解压数据集和下载标注文件后,PaddleOCR/train_data/ 有两个文件夹和两个文件,
分别是
:
解压数据集和下载标注文件后,PaddleOCR/train_data/ 有两个文件夹和两个文件,
按照如下方式组织icdar2015数据集
:
```
/PaddleOCR/train_data/icdar2015/text_localization/
└─ icdar_c4_train_imgs/ icdar数据集的训练数据
...
...
@@ -42,11 +65,13 @@ json.dumps编码前的图像标注信息是包含多个字典的list,字典中
如果您想在其他数据集上训练,可以按照上述形式构建标注文件。
## 快速启动训练
<a
name=
"12--------"
></a>
## 1.2 下载预训练模型
首先下载模型backbone的pretrain model,PaddleOCR的检测模型目前支持两种backbone,分别是MobileNetV3、ResNet_vd系列,
您可以根据需求使用
[
PaddleClas
](
https://github.com/PaddlePaddle/PaddleClas/tree/develop/ppcls/modeling/architectures
)
中的模型更换backbone,
对应的backbone预训练模型可以从
[
PaddleClas repo 主页中找到下载链接
](
https://github.com/PaddlePaddle/PaddleClas#mobile-series
)
。
您可以根据需求使用
[
PaddleClas
](
https://github.com/PaddlePaddle/PaddleClas/tree/release/2.0/ppcls/modeling/architectures
)
中的模型更换backbone,
对应的backbone预训练模型可以从
[
PaddleClas repo 主页中找到下载链接
](
https://github.com/PaddlePaddle/PaddleClas/blob/release%2F2.0/README_cn.md#resnet%E5%8F%8A%E5%85%B6vd%E7%B3%BB%E5%88%97
)
。
```
shell
cd
PaddleOCR/
# 根据backbone的不同选择下载对应的预训练模型
...
...
@@ -56,23 +81,23 @@ wget -P ./pretrain_models/ https://paddle-imagenet-models-name.bj.bcebos.com/dyg
wget
-P
./pretrain_models/ https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/ResNet18_vd_pretrained.pdparams
# 或,下载ResNet50_vd的预训练模型
wget
-P
./pretrain_models/ https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/ResNet50_vd_ssld_pretrained.pdparams
```
#### 启动训练
<a
name=
"13-----"
></a>
## 1.3 启动训练
*如果您安装的是cpu版本,请将配置文件中的 `use_gpu` 字段修改为false*
```
shell
# 单机单卡训练 mv3_db 模型
python3 tools/train.py
-c
configs/det/det_mv3_db.yml
\
-o
Global.pretrain_weights
=
./pretrain_models/MobileNetV3_large_x0_5_pretrained/
-o
Global.pretrained_model
=
./pretrain_models/MobileNetV3_large_x0_5_pretrained
# 单机多卡训练,通过 --gpus 参数设置使用的GPU ID
python3
-m
paddle.distributed.launch
--gpus
'0,1,2,3'
tools/train.py
-c
configs/det/det_mv3_db.yml
\
-o
Global.pretrain
_weights
=
./pretrain_models/MobileNetV3_large_x0_5_pretrained
/
-o
Global.pretrain
ed_model
=
./pretrain_models/MobileNetV3_large_x0_5_pretrained
```
上述指令中,通过-c 选择训练使用configs/det/det_db_mv3.yml配置文件。
有关配置文件的详细解释,请参考
[
链接
](
./config.md
)
。
...
...
@@ -81,46 +106,122 @@ python3 -m paddle.distributed.launch --gpus '0,1,2,3' tools/train.py -c configs/
python3 tools/train.py
-c
configs/det/det_mv3_db.yml
-o
Optimizer.base_lr
=
0.0001
```
#### 断点训练
<a
name=
"14-----"
></a>
## 1.4 断点训练
如果训练程序中断,如果希望加载训练中断的模型从而恢复训练,可以通过指定Global.checkpoints指定要加载的模型路径:
```
shell
python3 tools/train.py
-c
configs/det/det_mv3_db.yml
-o
Global.checkpoints
=
./your/trained/model
```
**注意**
:
`Global.checkpoints`
的优先级高于
`Global.pretrained_model`
的优先级,即同时指定两个参数时,优先加载
`Global.checkpoints`
指定的模型,如果
`Global.checkpoints`
指定的模型路径有误,会加载
`Global.pretrained_model`
指定的模型。
<a
name=
"15---backbone---"
></a>
## 1.5 更换Backbone 训练
PaddleOCR将网络划分为四部分,分别在
[
ppocr/modeling
](
../../ppocr/modeling
)
下。 进入网络的数据将按照顺序(transforms->backbones->
necks->heads)依次通过这四个部分。
```
bash
├── architectures
# 网络的组网代码
├── transforms
# 网络的图像变换模块
├── backbones
# 网络的特征提取模块
├── necks
# 网络的特征增强模块
└── heads
# 网络的输出模块
```
如果要更换的Backbone 在PaddleOCR中有对应实现,直接修改配置yml文件中
`Backbone`
部分的参数即可。
如果要使用新的Backbone,更换backbones的例子如下:
1.
在
[
ppocr/modeling/backbones
](
../../ppocr/modeling/backbones
)
文件夹下新建文件,如my_backbone.py。
2.
在 my_backbone.py 文件内添加相关代码,示例代码如下:
```
python
import
paddle
import
paddle.nn
as
nn
import
paddle.nn.functional
as
F
class
MyBackbone
(
nn
.
Layer
):
def
__init__
(
self
,
*
args
,
**
kwargs
):
super
(
MyBackbone
,
self
).
__init__
()
# your init code
self
.
conv
=
nn
.
xxxx
def
forward
(
self
,
inputs
):
# your network forward
y
=
self
.
conv
(
inputs
)
return
y
```
**注意**
:
`Global.checkpoints`
的优先级高于
`Global.pretrain_weights`
的优先级,即同时指定两个参数时,优先加载
`Global.checkpoints`
指定的模型,如果
`Global.checkpoints`
指定的模型路径有误,会加载
`Global.pretrain_weights`
指定的模型。
3.
在
[
ppocr/modeling/backbones/\__init\__.py
](
../../ppocr/modeling/backbones/__init__.py
)
文件内导入添加的
`MyBackbone`
模块,然后修改配置文件中Backbone进行配置即可使用,格式如下:
```
yaml
Backbone
:
name
:
MyBackbone
args1
:
args1
```
## 指标评估
**注意**
:如果要更换网络的其他模块,可以参考
[
文档
](
./add_new_algorithm.md
)
。
PaddleOCR计算三个OCR检测相关的指标,分别是:Precision、Recall、Hmean。
<a
name=
"16-----"
></a>
## 1.6 指标评估
运行如下代码,根据配置文件
`det_db_mv3.yml`
中
`save_res_path`
指定的测试集检测结果文件,计算评估指标
。
PaddleOCR计算三个OCR检测相关的指标,分别是:Precision、Recall、Hmean(F-Score)
。
评估时设置后处理参数
`box_thresh=0.5`
,
`unclip_ratio=1.5`
,使用不同数据集、不同模型训练,可调整这两个参数进行优化
训练中模型参数默认保存在
`Global.save_model_dir`
目录下。在评估指标时,需要设置
`Global.checkpoints`
指向保存的参数文件。
```
shell
python3 tools/eval.py
-c
configs/det/det_mv3_db.yml
-o
Global.checkpoints
=
"{path/to/weights}/best_accuracy"
PostProcess.box_thresh
=
0.5 PostProcess.unclip_ratio
=
1.5
python3 tools/eval.py
-c
configs/det/det_mv3_db.yml
-o
Global.checkpoints
=
"{path/to/weights}/best_accuracy"
```
*
注:
`box_thresh`
、
`unclip_ratio`
是DB后处理所需要的参数,在评估EAST模型时不需要设置
## 测试检测效果
<a
name=
"17-------"
></a>
## 1.7 测试检测效果
测试单张图像的检测效果
```
shell
python3 tools/infer_det.py
-c
configs/det/det_mv3_db.yml
-o
Global.infer_img
=
"./doc/imgs_en/img_10.jpg"
Global.pretrained_model
=
"./output/det_db/best_accuracy"
```
测试DB模型时,调整后处理阈值
,
测试DB模型时,调整后处理阈值
```
shell
python3 tools/infer_det.py
-c
configs/det/det_mv3_db.yml
-o
Global.infer_img
=
"./doc/imgs_en/img_10.jpg"
Global.pretrained_model
=
"./output/det_db/best_accuracy"
PostProcess.box_thresh
=
0.6 PostProcess.unclip_ratio
=
1.5
python3 tools/infer_det.py
-c
configs/det/det_mv3_db.yml
-o
Global.infer_img
=
"./doc/imgs_en/img_10.jpg"
Global.pretrained_model
=
"./output/det_db/best_accuracy"
PostProcess.box_thresh
=
0.6 PostProcess.unclip_ratio
=
2.0
```
测试文件夹下所有图像的检测效果
```
shell
python3 tools/infer_det.py
-c
configs/det/det_mv3_db.yml
-o
Global.infer_img
=
"./doc/imgs_en/"
Global.pretrained_model
=
"./output/det_db/best_accuracy"
```
<a
name=
"18--inference----"
></a>
## 1.8 转inference模型测试
inference 模型(
`paddle.jit.save`
保存的模型)
一般是模型训练,把模型结构和模型参数保存在文件中的固化模型,多用于预测部署场景。
训练过程中保存的模型是checkpoints模型,保存的只有模型的参数,多用于恢复训练等。
与checkpoints模型相比,inference 模型会额外保存模型的结构信息,在预测部署、加速推理上性能优越,灵活方便,适合于实际系统集成。
检测模型转inference 模型方式:
```
shell
# 加载配置文件`det_mv3_db.yml`,从`output/det_db`目录下加载`best_accuracy`模型,inference模型保存在`./output/det_db_inference`目录下
python3 tools/export_model.py
-c
configs/det/det_mv3_db.yml
-o
Global.pretrained_model
=
"./output/det_db/best_accuracy"
Global.save_inference_dir
=
"./output/det_db_inference/"
```
DB检测模型inference 模型预测:
```
shell
python3 tools/infer/predict_det.py
--det_algorithm
=
"DB"
--det_model_dir
=
"./output/det_db_inference/"
--image_dir
=
"./doc/imgs/"
--use_gpu
=
True
```
如果是其他检测,比如EAST模型,det_algorithm参数需要修改为EAST,默认为DB算法:
```
shell
python3 tools/infer/predict_det.py
--det_algorithm
=
"EAST"
--det_model_dir
=
"./output/det_db_inference/"
--image_dir
=
"./doc/imgs/"
--use_gpu
=
True
```
<a
name=
"2"
></a>
# 2. FAQ
Q1: 训练模型转inference 模型之后预测效果不一致?
**A**
:此类问题出现较多,问题多是trained model预测时候的预处理、后处理参数和inference model预测的时候的预处理、后处理参数不一致导致的。以det_mv3_db.yml配置文件训练的模型为例,训练模型、inference模型预测结果不一致问题解决方式如下:
-
检查
[
trained model预处理
](
https://github.com/PaddlePaddle/PaddleOCR/blob/c1ed243fb68d5d466258243092e56cbae32e2c14/configs/det/det_mv3_db.yml#L116
)
,和
[
inference model的预测预处理
](
https://github.com/PaddlePaddle/PaddleOCR/blob/c1ed243fb68d5d466258243092e56cbae32e2c14/tools/infer/predict_det.py#L42
)
函数是否一致。算法在评估的时候,输入图像大小会影响精度,为了和论文保持一致,训练icdar15配置文件中将图像resize到
[
736, 1280],但是在inference model预测的时候只有一套默认参数,会考虑到预测速度问题,默认限制图像最长边为960做resize的。训练模型预处理和inference模型的预处理函数位于[ppocr/data/imaug/operators.py
](
https://github.com/PaddlePaddle/PaddleOCR/blob/c1ed243fb68d5d466258243092e56cbae32e2c14/ppocr/data/imaug/operators.py#L147
)
-
检查
[
trained model后处理
](
https://github.com/PaddlePaddle/PaddleOCR/blob/c1ed243fb68d5d466258243092e56cbae32e2c14/configs/det/det_mv3_db.yml#L51
)
,和
[
inference 后处理参数
](
https://github.com/PaddlePaddle/PaddleOCR/blob/c1ed243fb68d5d466258243092e56cbae32e2c14/tools/infer/utility.py#L50
)
是否一致。
doc/doc_ch/enhanced_ctc_loss.md
0 → 100644
View file @
006d84bf
# Enhanced CTC Loss
在OCR识别中, CRNN是一种在工业界广泛使用的文字识别算法。 在训练阶段,其采用CTCLoss来计算网络损失; 在推理阶段,其采用CTCDecode来获得解码结果。虽然CRNN算法在实际业务中被证明能够获得很好的识别效果, 然而用户对识别准确率的要求却是无止境的,如何进一步提升文字识别的准确率呢? 本文以CTCLoss为切人点,分别从难例挖掘、 多任务学习、 Metric Learning 3个不同的角度探索了CTCLoss的改进融合方案,提出了EnhancedCTCLoss,其包括如下3个组成部分: Focal-CTC Loss,A-CTC Loss, C-CTC Loss。
## 1. Focal-CTC Loss
Focal Loss 出自论文《Focal Loss for Dense Object Detection》, 该loss最先提出的时候主要是为了解决one-stage目标检测中正负样本比例严重失衡的问题。该损失函数降低了大量简单负样本在训练中所占的权重,也可理解为一种困难样本挖掘。
其损失函数形式如下:
<div
align=
"center"
>
<img
src=
"./focal_loss_formula.png"
width =
"600"
/>
</div>
其中, y' 是经过激活函数的输出,取值在0-1之间。其在原始的交叉熵损失的基础上加了一个调制系数(1 – y’)^
γ
和平衡因子
α
。 当
α
= 1,y=1时,其损失函数与交叉熵损失的对比如下图所示:
<div
align=
"center"
>
<img
src=
"./focal_loss_image.png"
width =
"600"
/>
</div>
从上图可以看到, 当
γ
> 0时,调整系数(1-y’)^
γ
赋予易分类样本损失一个更小的权重,使得网络更关注于困难的、错分的样本。 调整因子
γ
用于调节简单样本权重降低的速率,当
γ
为0时即为交叉熵损失函数,当
γ
增加时,调整因子的影响也会随之增大。实验发现
γ
为2是最优。平衡因子
α
用来平衡正负样本本身的比例不均,文中
α
取0.25。
对于经典的CTC算法,假设某个特征序列(f
<sub>
1
</sub>
, f
<sub>
2
</sub>
, ......f
<sub>
t
</sub>
), 经过CTC解码之后结果等于label的概率为y’, 则CTC解码结果不为label的概率即为(1-y’);不难发现, CTCLoss值和y’有如下关系:
<div
align=
"center"
>
<img
src=
"./equation_ctcloss.png"
width =
"250"
/>
</div>
结合Focal Loss的思想,赋予困难样本较大的权重,简单样本较小的权重,可以使网络更加聚焦于对困难样本的挖掘,进一步提升识别的准确率,由此我们提出了Focal-CTC Loss; 其定义如下所示:
<div
align=
"center"
>
<img
src=
"./equation_focal_ctc.png"
width =
"500"
/>
</div>
实验中,
γ
取值为2,
α
= 1, 具体实现见:
[
rec_ctc_loss.py
](
../../ppocr/losses/rec_ctc_loss.py
)
## 2. A-CTC Loss
A-CTC Loss是CTC Loss + ACE Loss的简称。 其中ACE Loss出自论文
<
Aggregation
Cross-Entropy
for
Sequence
Recognition
>
. ACE Loss相比于CTCLoss,主要有如下两点优势:
+
ACE Loss能够解决2-D文本的识别问题; CTCLoss只能够处理1-D文本
+
ACE Loss 在时间复杂度和空间复杂度上优于CTC loss
前人总结的OCR识别算法的优劣如下图所示:
<div
align=
"center"
>
<img
src=
"./rec_algo_compare.png"
width =
"1000"
/>
</div>
虽然ACELoss确实如上图所说,可以处理2D预测,在内存占用及推理速度方面具备优势,但在实践过程中,我们发现单独使用ACE Loss, 识别效果并不如CTCLoss. 因此,我们尝试将CTCLoss和ACELoss进行结合,同时以CTCLoss为主,将ACELoss 定位为一个辅助监督loss。 这一尝试收到了效果,在我们内部的实验数据集上,相比单独使用CTCLoss,识别准确率可以提升1%左右。
A_CTC Loss定义如下:
<div
align=
"center"
>
<img
src=
"./equation_a_ctc.png"
width =
"300"
/>
</div>
实验中,λ = 0.1. ACE loss实现代码见:
[
ace_loss.py
](
../../ppocr/losses/ace_loss.py
)
## 3. C-CTC Loss
C-CTC Loss是CTC Loss + Center Loss的简称。 其中Center Loss出自论文
<
A
Discriminative
Feature
Learning
Approach
for
Deep
Face
Recognition
>
. 最早用于人脸识别任务,用于增大类间距离,减小类内距离, 是Metric Learning领域一种较早的、也比较常用的一种算法。
在中文OCR识别任务中,通过对badcase分析, 我们发现中文识别的一大难点是相似字符多,容易误识。 由此我们想到是否可以借鉴Metric Learing的想法, 增大相似字符的类间距,从而提高识别准确率。然而,MetricLearning主要用于图像识别领域,训练数据的标签为一个固定的值;而对于OCR识别来说,其本质上是一个序列识别任务,特征和label之间并不具有显式的对齐关系,因此两者如何结合依然是一个值得探索的方向。
通过尝试Arcmargin, Cosmargin等方法, 我们最终发现Centerloss 有助于进一步提升识别的准确率。C_CTC Loss定义如下:
<div
align=
"center"
>
<img
src=
"./equation_c_ctc.png"
width =
"300"
/>
</div>
实验中,我们设置λ=0.25. center_loss实现代码见:
[
center_loss.py
](
../../ppocr/losses/center_loss.py
)
值得一提的是, 在C-CTC Loss中,选择随机初始化Center并不能够带来明显的提升. 我们的Center初始化方法如下:
+
基于原始的CTCLoss, 训练得到一个网络N
+
挑选出训练集中,识别完全正确的部分, 组成集合G
+
将G中的每个样本送入网络,进行前向计算, 提取最后一个FC层的输入(即feature)及其经过argmax计算的结果(即index)之间的对应关系
+
将相同index的feature进行聚合,计算平均值,得到各自字符的初始center.
以配置文件
`configs/rec/ch_PP-OCRv2/ch_PP-OCRv2_rec.yml`
为例, center提取命令如下所示:
```
python tools/export_center.py -c configs/rec/ch_PP-OCRv2/ch_PP-OCRv2_rec.yml -o Global.pretrained_model: "./output/rec_mobile_pp-OCRv2/best_accuracy"
```
运行完后,会在PaddleOCR主目录下生成
`train_center.pkl`
.
## 4. 实验
对于上述的三种方案,我们基于百度内部数据集进行了训练、评测,实验情况如下表所示:
|algorithm| Focal_CTC | A_CTC | C-CTC |
|:------| :------| ------: | :------: |
|gain| +0.3% | +0.7% | +1.7% |
基于上述实验结论,我们在PP-OCRv2中,采用了C-CTC的策略。 值得一提的是,由于PP-OCRv2 处理的是6625个中文字符的识别任务,字符集比较大,形似字较多,所以在该任务上C-CTC 方案带来的提升较大。 但如果换做其他OCR识别任务,结论可能会有所不同。大家可以尝试Focal-CTC,A-CTC, C-CTC以及组合方案EnhancedCTC,相信会带来不同程度的提升效果。
统一的融合方案见如下文件:
[
rec_enhanced_ctc_loss.py
](
../../ppocr/losses/rec_enhanced_ctc_loss.py
)
doc/doc_ch/environment.md
0 → 100644
View file @
006d84bf
# 运行环境准备
Windows和Mac用户推荐使用Anaconda搭建Python环境,Linux用户建议使用docker搭建PyThon环境。
推荐环境:
-
PaddlePaddle >= 2.0.0 (2.1.2)
-
python3.7
-
CUDA10.1 / CUDA10.2
-
CUDNN 7.6
如果对于Python环境熟悉的用户可以直接跳到第2步安装PaddlePaddle。
*
[
1. Python环境搭建
](
#1
)
+
[
1.1 Windows
](
#1.1
)
+
[
1.2 Mac
](
#1.2
)
+
[
1.3 Linux
](
#1.3
)
*
[
2. 安装PaddlePaddle
](
#2
)
<a
name=
"1"
></a>
## 1. Python环境搭建
<a
name=
"1.1"
></a>
### 1.1 Windows
#### 1.1.1 安装Anaconda
-
说明:使用paddlepaddle需要先安装python环境,这里我们选择python集成环境Anaconda工具包
-
Anaconda是1个常用的python包管理程序
-
安装完Anaconda后,可以安装python环境,以及numpy等所需的工具包环境。
-
Anaconda下载:
-
地址:https://mirrors.tuna.tsinghua.edu.cn/anaconda/archive/?C=M&O=D
-
大部分win10电脑均为64位操作系统,选择x86_64版本;若电脑为32位操作系统,则选择x86.exe
<img src="../install/windows/Anaconda_download.png" alt="anaconda download" width="800" align="center"/>
-
下载完成后,双击安装程序进入图形界面
-
默认安装位置为C盘,建议将安装位置更改到D盘:
<img src="../install/windows/anaconda_install_folder.png" alt="install config" width="500" align="center"/>
-
勾选conda加入环境变量,忽略警告:
<img src="../install/windows/anaconda_install_env.png" alt="add conda to path" width="500" align="center"/>
#### 1.1.2 打开终端并创建conda环境
-
打开Anaconda Prompt终端:左下角Windows Start Menu -> Anaconda3 -> Anaconda Prompt启动控制台
<img
src=
"../install/windows/anaconda_prompt.png"
alt=
"anaconda download"
width=
"300"
align=
"center"
/>
-
创建新的conda环境
```
shell
# 在命令行输入以下命令,创建名为paddle_env的环境
# 此处为加速下载,使用清华源
conda create
--name
paddle_env
python
=
3.8
--channel
https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free/
# 这是一行命令
```
该命令会创建1个名为paddle_env、python版本为3.8的可执行环境,根据网络状态,需要花费一段时间
之后命令行中会输出提示信息,输入y并回车继续安装
<img
src=
"../install/windows/conda_new_env.png"
alt=
"conda create"
width=
"700"
align=
"center"
/>
-
激活刚创建的conda环境,在命令行中输入以下命令:
```
shell
# 激活paddle_env环境
conda activate paddle_env
# 查看当前python的位置
where python
```
<img src="../install/windows/conda_list_env.png" alt="create environment" width="600" align="center"/>
以上anaconda环境和python环境安装完毕
<a
name=
"1.2"
></a>
### 1.2 Mac
#### 1.2.1 安装Anaconda
-
说明:使用paddlepaddle需要先安装python环境,这里我们选择python集成环境Anaconda工具包
-
Anaconda是1个常用的python包管理程序
-
安装完Anaconda后,可以安装python环境,以及numpy等所需的工具包环境
-
Anaconda下载:
-
地址:https://mirrors.tuna.tsinghua.edu.cn/anaconda/archive/?C=M&O=D
<img
src=
"../install/mac/anaconda_start.png"
alt=
"anaconda download"
width=
"800"
align=
"center"
/>
-
选择最下方的
`Anaconda3-2021.05-MacOSX-x86_64.pkg`
下载
-
下载完成后,双击.pkg文件进入图形界面
-
按默认设置即可,安装需要花费一段时间
-
建议安装vscode或pycharm等代码编辑器
#### 1.2.2 打开终端并创建conda环境
-
打开终端
-
同时按下command键和空格键,在聚焦搜索中输入"终端",双击进入终端
-
**将conda加入环境变量**
-
加入环境变量是为了让系统能识别conda命令
-
输入以下命令,在终端中打开
`~/.bash_profile`
:
```shell
vim ~/.bash_profile
```
-
在
`~/.bash_profile`
中将conda添加为环境变量:
```shell
# 先按i进入编辑模式
# 在第一行输入:
export PATH="~/opt/anaconda3/bin:$PATH"
# 若安装时自定义了安装位置,则将~/opt/anaconda3/bin改为自定义的安装目录下的bin文件夹
```
```shell
# 修改后的~/.bash_profile文件应如下(其中xxx为用户名):
export PATH="~/opt/anaconda3/bin:$PATH"
# >>> conda initialize >>>
# !! Contents within this block are managed by 'conda init' !!
__conda_setup="$('/Users/xxx/opt/anaconda3/bin/conda' 'shell.bash' 'hook' 2> /dev/null)"
if [ $? -eq 0 ]; then
eval "$__conda_setup"
else
if [ -f "/Users/xxx/opt/anaconda3/etc/profile.d/conda.sh" ]; then
. "/Users/xxx/opt/anaconda3/etc/profile.d/conda.sh"
else
export PATH="/Users/xxx/opt/anaconda3/bin:$PATH"
fi
fi
unset __conda_setup
# <<< conda initialize <<<
```
- 修改完成后,先按`esc`键退出编辑模式,再输入`:wq!`并回车,以保存退出
-
验证是否能识别conda命令:
- 在终端中输入`source ~/.bash_profile`以更新环境变量
- 再在终端输入`conda info --envs`,若能显示当前有base环境,则conda已加入环境变量
-
创建新的conda环境
```
shell
# 在命令行输入以下命令,创建名为paddle_env的环境
# 此处为加速下载,使用清华源
conda create
--name
paddle_env
python
=
3.8
--channel
https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free/
```
-
该命令会创建1个名为paddle_env、python版本为3.8的可执行环境,根据网络状态,需要花费一段时间
-
之后命令行中会输出提示信息,输入y并回车继续安装
- <img src="../install/mac/conda_create.png" alt="conda_create" width="600" align="center"/>
-
激活刚创建的conda环境,在命令行中输入以下命令:
```
shell
# 激活paddle_env环境
conda activate paddle_env
# 查看当前python的位置
where python
```
<img
src=
"../install/mac/conda_activate.png"
alt=
"conda_actviate"
width=
"600"
align=
"center"
/>
以上anaconda环境和python环境安装完毕
<a
name=
"1.3"
></a>
### 1.3 Linux
Linux用户可选择Anaconda或Docker两种方式运行。如果你熟悉Docker且需要训练PaddleOCR模型,推荐使用Docker环境,PaddleOCR的开发流程均在Docker环境下运行。如果你不熟悉Docker,也可以使用Anaconda来运行项目。
#### 1.3.1 Anaconda环境配置
-
说明:使用paddlepaddle需要先安装python环境,这里我们选择python集成环境Anaconda工具包
-
Anaconda是1个常用的python包管理程序
-
安装完Anaconda后,可以安装python环境,以及numpy等所需的工具包环境
-
**下载Anaconda**
:
-
下载地址:https://mirrors.tuna.tsinghua.edu.cn/anaconda/archive/?C=M&O=D
<img
src=
"../install/linux/anaconda_download.png"
akt=
"anaconda download"
width=
"800"
align=
"center"
/>
- 选择适合您操作系统的版本
- 可在终端输入`uname -m`查询系统所用的指令集
-
下载法1:本地下载,再将安装包传到linux服务器上
-
下载法2:直接使用linux命令行下载
```
shell
# 首先安装wget
sudo
apt-get
install
wget
# Ubuntu
sudo
yum
install
wget
# CentOS
```
```
shell
# 然后使用wget从清华源上下载
# 如要下载Anaconda3-2021.05-Linux-x86_64.sh,则下载命令如下:
wget https://mirrors.tuna.tsinghua.edu.cn/anaconda/archive/Anaconda3-2021.05-Linux-x86_64.sh
# 若您要下载其他版本,需要将最后1个/后的文件名改成您希望下载的版本
```
- 安装Anaconda:
- 在命令行输入
`
sh Anaconda3-2021.05-Linux-x86_64.sh
`
- 若您下载的是其它版本,则将该命令的文件名替换为您下载的文件名
- 按照安装提示安装即可
- 查看许可时可输入q来退出
-
**
将conda加入环境变量
**
- 加入环境变量是为了让系统能识别conda命令,若您在安装时已将conda加入环境变量path,则可跳过本步
- 在终端中打开
`
~/.bashrc
`
:
```
shell
# 在终端中输入以下命令:
vim ~/.bashrc
```
- 在
`
~/.bashrc
`
中将conda添加为环境变量:
```
shell
# 先按i进入编辑模式
# 在第一行输入:
export
PATH
=
"~/anaconda3/bin:
$PATH
"
# 若安装时自定义了安装位置,则将~/anaconda3/bin改为自定义的安装目录下的bin文件夹
```
```
shell
# 修改后的~/.bash_profile文件应如下(其中xxx为用户名):
export
PATH
=
"~/opt/anaconda3/bin:
$PATH
"
# >>> conda initialize >>>
# !! Contents within this block are managed by 'conda init' !!
__conda_setup
=
"
$(
'/Users/xxx/opt/anaconda3/bin/conda'
'shell.bash'
'hook'
2> /dev/null
)
"
if
[
$?
-eq
0
]
;
then
eval
"
$__conda_setup
"
else
if
[
-f
"/Users/xxx/opt/anaconda3/etc/profile.d/conda.sh"
]
;
then
.
"/Users/xxx/opt/anaconda3/etc/profile.d/conda.sh"
else
export
PATH
=
"/Users/xxx/opt/anaconda3/bin:
$PATH
"
fi
fi
unset
__conda_setup
# <<< conda initialize <<<
```
- 修改完成后,先按
`
esc
`
键退出编辑模式,再输入
`
:wq!
`
并回车,以保存退出
- 验证是否能识别conda命令:
- 在终端中输入
`
source
~/.bash_profile
`
以更新环境变量
- 再在终端输入
`
conda info
--envs
`
,若能显示当前有base环境,则conda已加入环境变量
- 创建新的conda环境
```
shell
# 在命令行输入以下命令,创建名为paddle_env的环境
# 此处为加速下载,使用清华源
conda create
--name
paddle_env
python
=
3.8
--channel
https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free/
```
- 该命令会创建1个名为paddle_env、python版本为3.8的可执行环境,根据网络状态,需要花费一段时间
- 之后命令行中会输出提示信息,输入y并回车继续安装
<img
src
=
"../install/linux/conda_create.png"
alt
=
"conda_create"
width
=
"500"
align
=
"center"
/>
- 激活刚创建的conda环境,在命令行中输入以下命令:
```
shell
# 激活paddle_env环境
conda activate paddle_env
```
以上anaconda环境和python环境安装完毕
#### 1.3.2 Docker环境配置
**注意:第一次使用这个镜像,会自动下载该镜像,请耐心等待。您也可以访问[DockerHub](https://hub.docker.com/r/paddlepaddle/paddle/tags/)获取与您机器适配的镜像。**
```
bash
# 切换到工作目录下
cd /home/Projects
# 首次运行需创建一个docker容器,再次运行时不需要运行当前命令
# 创建一个名字为ppocr的docker容器,并将当前目录映射到容器的/paddle目录下
#如果您希望在CPU环境下使用docker,使用docker而不是nvidia-docker创建docker
sudo docker run --name ppocr -v $PWD:/paddle --network=host -it registry.baidubce.com/paddlepaddle/paddle:2.1.3-gpu-cuda10.2-cudnn7 /bin/bash
#如果使用CUDA10,请运行以下命令创建容器,设置docker容器共享内存shm-size为64G,建议设置32G以上
# 如果是CUDA11+CUDNN8,推荐使用镜像registry.baidubce.com/paddlepaddle/paddle:2.1.3-gpu-cuda11.2-cudnn8
sudo nvidia-docker run --name ppocr -v $PWD:/paddle --shm-size=64G --network=host -it registry.baidubce.com/paddlepaddle/paddle:2.1.3-gpu-cuda10.2-cudnn7 /bin/bash
# ctrl+P+Q可退出docker 容器,重新进入docker 容器使用如下命令
sudo docker container exec -it ppocr /bin/bash
```
<a name="2"></a>
## 2. 安装PaddlePaddle
- 如果您的机器安装的是CUDA9或CUDA10,请运行以下命令安装
```
bash
python3 -m pip install paddlepaddle-gpu -i https://mirror.baidu.com/pypi/simple
```
- 如果您的机器是CPU,请运行以下命令安装
```
bash
python3 -m pip install paddlepaddle -i https://mirror.baidu.com/pypi/simple
```
更多的版本需求,请参照[飞桨官网安装文档](https://www.paddlepaddle.org.cn/install/quick)中的说明进行操作。
doc/doc_ch/equation_a_ctc.png
0 → 100644
View file @
006d84bf
10.2 KB
doc/doc_ch/equation_c_ctc.png
0 → 100644
View file @
006d84bf
10.6 KB
doc/doc_ch/equation_ctcloss.png
0 → 100644
View file @
006d84bf
9.33 KB
doc/doc_ch/equation_focal_ctc.png
0 → 100644
View file @
006d84bf
14.5 KB
doc/doc_ch/focal_loss_formula.png
0 → 100644
View file @
006d84bf
23.3 KB
doc/doc_ch/focal_loss_image.png
0 → 100644
View file @
006d84bf
125 KB
doc/doc_ch/inference.md
View file @
006d84bf
...
...
@@ -273,7 +273,7 @@ python3 tools/export_model.py -c configs/rec/rec_r34_vd_none_bilstm_ctc.yml -o G
CRNN 文本识别模型推理,可以执行如下命令:
```
python3 tools/infer/predict_rec.py --image_dir="./doc/imgs_words_en/word_336.png" --rec_model_dir="./inference/rec_crnn/" --rec_image_shape="3, 32, 100" --rec_char_
type="en
"
python3 tools/infer/predict_rec.py --image_dir="./doc/imgs_words_en/word_336.png" --rec_model_dir="./inference/rec_crnn/" --rec_image_shape="3, 32, 100" --rec_char_
dict_path="./ppocr/utils/ic15_dict.txt
"
```

...
...
@@ -288,7 +288,7 @@ Predicts of ./doc/imgs_words_en/word_336.png:('super', 0.9999073)
-
训练时采用的图像分辨率不同,训练上述模型采用的图像分辨率是[3,32,100],而中文模型训练时,为了保证长文本的识别效果,训练时采用的图像分辨率是[3, 32, 320]。预测推理程序默认的的形状参数是训练中文采用的图像分辨率,即[3, 32, 320]。因此,这里推理上述英文模型时,需要通过参数rec_image_shape设置识别图像的形状。
-
字符列表,DTRB论文中实验只是针对26个小写英文本母和10个数字进行实验,总共36个字符。所有大小字符都转成了小写字符,不在上面列表的字符都忽略,认为是空格。因此这里没有输入字符字典,而是通过如下命令生成字典.因此在推理时需要设置参数rec_char_
type,指定为英文"en
"。
-
字符列表,DTRB论文中实验只是针对26个小写英文本母和10个数字进行实验,总共36个字符。所有大小字符都转成了小写字符,不在上面列表的字符都忽略,认为是空格。因此这里没有输入字符字典,而是通过如下命令生成字典.因此在推理时需要设置参数rec_char_
dict_path,指定为英文字典"./ppocr/utils/ic15_dict.txt
"。
```
self.character_str = "0123456789abcdefghijklmnopqrstuvwxyz"
...
...
@@ -303,15 +303,15 @@ dict_character = list(self.character_str)
python3 tools/infer/predict_rec.py --image_dir="./doc/imgs_words_en/word_336.png" \
--rec_model_dir="./inference/srn/" \
--rec_image_shape="1, 64, 256" \
--rec_char_
type="en
" \
--rec_char_
dict_path="./ppocr/utils/ic15_dict.txt
" \
--rec_algorithm="SRN"
```
### 4. 自定义文本识别字典的推理
如果训练时修改了文本的字典,在使用inference模型预测时,需要通过
`--rec_char_dict_path`
指定使用的字典路径
,并且设置
`rec_char_type=ch`
如果训练时修改了文本的字典,在使用inference模型预测时,需要通过
`--rec_char_dict_path`
指定使用的字典路径
```
python3 tools/infer/predict_rec.py --image_dir="./doc/imgs_words_en/word_336.png" --rec_model_dir="./your inference model" --rec_image_shape="3, 32, 100"
--rec_char_type="ch"
--rec_char_dict_path="your text dict path"
python3 tools/infer/predict_rec.py --image_dir="./doc/imgs_words_en/word_336.png" --rec_model_dir="./your inference model" --rec_image_shape="3, 32, 100" --rec_char_dict_path="your text dict path"
```
<a
name=
"多语言模型的推理"
></a>
...
...
@@ -320,7 +320,7 @@ python3 tools/infer/predict_rec.py --image_dir="./doc/imgs_words_en/word_336.png
需要通过
`--vis_font_path`
指定可视化的字体路径,
`doc/fonts/`
路径下有默认提供的小语种字体,例如韩文识别:
```
python3 tools/infer/predict_rec.py --image_dir="./doc/imgs_words/korean/1.jpg" --rec_model_dir="./your inference model"
--rec_char_type="korean"
--rec_char_dict_path="ppocr/utils/dict/korean_dict.txt" --vis_font_path="doc/fonts/korean.ttf"
python3 tools/infer/predict_rec.py --image_dir="./doc/imgs_words/korean/1.jpg" --rec_model_dir="./your inference model" --rec_char_dict_path="ppocr/utils/dict/korean_dict.txt" --vis_font_path="doc/fonts/korean.ttf"
```

...
...
@@ -388,7 +388,7 @@ python3 tools/infer/predict_system.py --image_dir="./doc/imgs/00018069.jpg" --de
下面给出基于EAST文本检测和STAR-Net文本识别执行命令:
```
python3 tools/infer/predict_system.py --image_dir="./doc/imgs_en/img_10.jpg" --det_model_dir="./inference/det_east/" --det_algorithm="EAST" --rec_model_dir="./inference/starnet/" --rec_image_shape="3, 32, 100" --rec_char_
type="en
"
python3 tools/infer/predict_system.py --image_dir="./doc/imgs_en/img_10.jpg" --det_model_dir="./inference/det_east/" --det_algorithm="EAST" --rec_model_dir="./inference/starnet/" --rec_image_shape="3, 32, 100" --rec_char_
dict_path="./ppocr/utils/ic15_dict.txt
"
```
执行命令后,识别结果图像如下:
...
...
doc/doc_ch/inference_ppocr.md
0 → 100644
View file @
006d84bf
# PP-OCR模型库快速推理
本文介绍针对PP-OCR模型库的Python推理引擎使用方法,内容依次为文本检测、文本识别、方向分类器以及三者串联在CPU、GPU上的预测方法。
-
[
1. 文本检测模型推理
](
#文本检测模型推理
)
-
[
2. 文本识别模型推理
](
#文本识别模型推理
)
-
[
2.1 超轻量中文识别模型推理
](
#超轻量中文识别模型推理
)
-
[
2.2 多语言模型的推理
](
#多语言模型的推理
)
-
[
3. 方向分类模型推理
](
#方向分类模型推理
)
-
[
4. 文本检测、方向分类和文字识别串联推理
](
#文本检测、方向分类和文字识别串联推理
)
<a
name=
"文本检测模型推理"
></a>
## 1. 文本检测模型推理
文本检测模型推理,默认使用DB模型的配置参数。超轻量中文检测模型推理,可以执行如下命令:
```
# 下载超轻量中文检测模型:
wget https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_mobile_v2.0_det_infer.tartar xf ch_ppocr_mobile_v2.0_det_infer.tarpython3 tools/infer/predict_det.py --image_dir="./doc/imgs/00018069.jpg" --det_model_dir="./ch_ppocr_mobile_v2.0_det_infer/"
```
可视化文本检测结果默认保存到
`./inference_results`
文件夹里面,结果文件的名称前缀为'det_res'。结果示例如下:

通过参数
`limit_type`
和
`det_limit_side_len`
来对图片的尺寸进行限制,
`limit_type`
可选参数为[
`max`
,
`min`
],
`det_limit_size_len`
为正整数,一般设置为32 的倍数,比如960。
参数默认设置为
`limit_type='max', det_limit_side_len=960`
。表示网络输入图像的最长边不能超过960,
如果超过这个值,会对图像做等宽比的resize操作,确保最长边为
`det_limit_side_len`
。
设置为
`limit_type='min', det_limit_side_len=960`
则表示限制图像的最短边为960。
如果输入图片的分辨率比较大,而且想使用更大的分辨率预测,可以设置det_limit_side_len 为想要的值,比如1216:
```
python3 tools/infer/predict_det.py --image_dir="./doc/imgs/1.jpg" --det_model_dir="./inference/det_db/" --det_limit_type=max --det_limit_side_len=1216
```
如果想使用CPU进行预测,执行命令如下
```
python3 tools/infer/predict_det.py --image_dir="./doc/imgs/1.jpg" --det_model_dir="./inference/det_db/" --use_gpu=False
```
<a
name=
"文本识别模型推理"
></a>
## 2. 文本识别模型推理
<a
name=
"超轻量中文识别模型推理"
></a>
### 2.1 超轻量中文识别模型推理
超轻量中文识别模型推理,可以执行如下命令:
```
# 下载超轻量中文识别模型:
wget https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_mobile_v2.0_rec_infer.tar
tar xf ch_ppocr_mobile_v2.0_rec_infer.tar
python3 tools/infer/predict_rec.py --image_dir="./doc/imgs_words/ch/word_4.jpg" --rec_model_dir="ch_ppocr_mobile_v2.0_rec_infer"
```

执行命令后,上面图像的预测结果(识别的文本和得分)会打印到屏幕上,示例如下:
```
bash
Predicts of ./doc/imgs_words/ch/word_4.jpg:
(
'实力活力'
, 0.98458153
)
```
<a
name=
"多语言模型的推理"
></a>
### 2.2 多语言模型的推理
如果您需要预测的是其他语言模型,在使用inference模型预测时,需要通过
`--rec_char_dict_path`
指定使用的字典路径, 同时为了得到正确的可视化结果,
需要通过
`--vis_font_path`
指定可视化的字体路径,
`doc/fonts/`
路径下有默认提供的小语种字体,例如韩文识别:
```
python3 tools/infer/predict_rec.py --image_dir="./doc/imgs_words/korean/1.jpg" --rec_model_dir="./your inference model" --rec_char_type="korean" --rec_char_dict_path="ppocr/utils/dict/korean_dict.txt" --vis_font_path="doc/fonts/korean.ttf"
```

执行命令后,上图的预测结果为:
```
text
Predicts of ./doc/imgs_words/korean/1.jpg:('바탕으로', 0.9948904)
```
<a
name=
"方向分类模型推理"
></a>
## 3. 方向分类模型推理
方向分类模型推理,可以执行如下命令:
```
# 下载超轻量中文方向分类器模型:
wget https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_mobile_v2.0_cls_infer.tar
tar xf ch_ppocr_mobile_v2.0_cls_infer.tar
python3 tools/infer/predict_cls.py --image_dir="./doc/imgs_words/ch/word_4.jpg" --cls_model_dir="ch_ppocr_mobile_v2.0_cls_infer"
```

执行命令后,上面图像的预测结果(分类的方向和得分)会打印到屏幕上,示例如下:
```
Predicts of ./doc/imgs_words/ch/word_4.jpg:['0', 0.9999982]
```
<a
name=
"文本检测、方向分类和文字识别串联推理"
></a>
## 4. 文本检测、方向分类和文字识别串联推理
以超轻量中文OCR模型推理为例,在执行预测时,需要通过参数
`image_dir`
指定单张图像或者图像集合的路径、参数
`det_model_dir`
,
`cls_model_dir`
和
`rec_model_dir`
分别指定检测,方向分类和识别的inference模型路径。参数
`use_angle_cls`
用于控制是否启用方向分类模型。
`use_mp`
表示是否使用多进程。
`total_process_num`
表示在使用多进程时的进程数。可视化识别结果默认保存到 ./inference_results 文件夹里面。
```
shell
# 使用方向分类器
python3 tools/infer/predict_system.py
--image_dir
=
"./doc/imgs/00018069.jpg"
--det_model_dir
=
"./inference/det_db/"
--cls_model_dir
=
"./inference/cls/"
--rec_model_dir
=
"./inference/rec_crnn/"
--use_angle_cls
=
true
# 不使用方向分类器
python3 tools/infer/predict_system.py
--image_dir
=
"./doc/imgs/00018069.jpg"
--det_model_dir
=
"./inference/det_db/"
--rec_model_dir
=
"./inference/rec_crnn/"
--use_angle_cls
=
false
# 使用多进程
python3 tools/infer/predict_system.py
--image_dir
=
"./doc/imgs/00018069.jpg"
--det_model_dir
=
"./inference/det_db/"
--rec_model_dir
=
"./inference/rec_crnn/"
--use_angle_cls
=
false
--use_mp
=
True
--total_process_num
=
6
```
执行命令后,识别结果图像如下:

doc/doc_ch/knowledge_distillation.md
View file @
006d84bf
...
...
@@ -39,7 +39,7 @@ PaddleOCR中集成了知识蒸馏的算法,具体地,有以下几个主要
### 2.1 识别配置文件解析
配置文件在
[
rec_chinese_lite_train
_distillation
_v2.1
.yml
](
../../configs/rec/ch_
ppocr_v2.1/rec_chinese_lite_train
_distillation
_v2.1
.yml
)
。
配置文件在
[
ch_PP-OCRv2_rec
_distillation.yml
](
../../configs/rec/ch_
PP-OCRv2/ch_PP-OCRv2_rec
_distillation.yml
)
。
#### 2.1.1 模型结构
...
...
@@ -246,6 +246,39 @@ Metric:
关于
`DistillationMetric`
更加具体的实现可以参考:
[
distillation_metric.py
](
../../ppocr/metrics/distillation_metric.py#L24
)
。
#### 2.1.5 蒸馏模型微调
对蒸馏得到的识别蒸馏进行微调有2种方式。
(1)基于知识蒸馏的微调:这种情况比较简单,下载预训练模型,在
[
ch_PP-OCRv2_rec_distillation.yml
](
../../configs/rec/ch_PP-OCRv2/ch_PP-OCRv2_rec_distillation.yml
)
中配置好预训练模型路径以及自己的数据路径,即可进行模型微调训练。
(2)微调时不使用知识蒸馏:这种情况,需要首先将预训练模型中的学生模型参数提取出来,具体步骤如下。
*
首先下载预训练模型并解压。
```
shell
# 下面预训练模型并解压
wget https://paddleocr.bj.bcebos.com/PP-OCRv2/chinese/ch_PP-OCRv2_rec_train.tar
tar
-xf
ch_PP-OCRv2_rec_train.tar
```
*
然后使用python,对其中的学生模型参数进行提取
```
python
import
paddle
# 加载预训练模型
all_params
=
paddle
.
load
(
"ch_PP-OCRv2_rec_train/best_accuracy.pdparams"
)
# 查看权重参数的keys
print
(
all_params
.
keys
())
# 学生模型的权重提取
s_params
=
{
key
[
len
(
"Student."
):]:
all_params
[
key
]
for
key
in
all_params
if
"Student."
in
key
}
# 查看学生模型权重参数的keys
print
(
s_params
.
keys
())
# 保存
paddle
.
save
(
s_params
,
"ch_PP-OCRv2_rec_train/student.pdparams"
)
```
转化完成之后,使用
[
ch_PP-OCRv2_rec.yml
](
../../configs/rec/ch_PP-OCRv2/ch_PP-OCRv2_rec.yml
)
,修改预训练模型的路径(为导出的
`student.pdparams`
模型路径)以及自己的数据路径,即可进行模型微调。
### 2.2 检测配置文件解析
*
coming soon!
doc/doc_ch/models_and_config.md
0 → 100644
View file @
006d84bf
# PP-OCR模型与配置文件
PP-OCR模型与配置文件一章主要补充一些OCR模型的基本概念、配置文件的内容与作用以便对模型后续的参数调整和训练中拥有更好的体验。
本章包含三个部分,首先在
[
PP-OCR模型下载
](
./models_list.md
)
中解释PP-OCR模型的类型概念,并提供所有模型的下载链接。然后在
[
配置文件内容与生成
](
./config.md
)
中详细说明调整PP-OCR模型所需的参数。最后的
[
模型库快速使用
](
./inference_ppocr.md
)
是对第一节PP-OCR模型库使用方法的介绍,可以通过Python推理引擎快速利用丰富的模型库模型获得测试结果。
------
下面我们首先了解一些OCR相关的基本概念:
-
[
1. OCR 简要介绍
](
#1-ocr-----
)
*
[
1.1 OCR 检测模型基本概念
](
#11-ocr---------
)
*
[
1.2 OCR 识别模型基本概念
](
#12-ocr---------
)
*
[
1.3 PP-OCR模型
](
#13-pp-ocr--
)
<a
name=
"1-ocr-----"
></a>
## 1. OCR 简要介绍
本节简要介绍OCR检测模型、识别模型的基本概念,并介绍PaddleOCR的PP-OCR模型。
OCR(Optical Character Recognition,光学字符识别)目前是文字识别的统称,已不限于文档或书本文字识别,更包括识别自然场景下的文字,又可以称为STR(Scene Text Recognition)。
OCR文字识别一般包括两个部分,文本检测和文本识别;文本检测首先利用检测算法检测到图像中的文本行;然后检测到的文本行用识别算法去识别到具体文字。
<a
name=
"11-ocr---------"
></a>
### 1.1 OCR 检测模型基本概念
文本检测就是要定位图像中的文字区域,然后通常以边界框的形式将单词或文本行标记出来。传统的文字检测算法多是通过手工提取特征的方式,特点是速度快,简单场景效果好,但是面对自然场景,效果会大打折扣。当前多是采用深度学习方法来做。
基于深度学习的文本检测算法可以大致分为以下几类:
1.
基于目标检测的方法;一般是预测得到文本框后,通过NMS筛选得到最终文本框,多是四点文本框,对弯曲文本场景效果不理想。典型算法为EAST、Text Box等方法。
2.
基于分割的方法;将文本行当成分割目标,然后通过分割结果构建外接文本框,可以处理弯曲文本,对于文本交叉场景问题效果不理想。典型算法为DB、PSENet等方法。
3.
混合目标检测和分割的方法;
<a
name=
"12-ocr---------"
></a>
### 1.2 OCR 识别模型基本概念
OCR识别算法的输入数据一般是文本行,背景信息不多,文字占据主要部分,识别算法目前可以分为两类算法:
1.
基于CTC的方法;即识别算法的文字预测模块是基于CTC的,常用的算法组合为CNN+RNN+CTC。目前也有一些算法尝试在网络中加入transformer模块等等。
2.
基于Attention的方法;即识别算法的文字预测模块是基于Attention的,常用算法组合是CNN+RNN+Attention。
<a
name=
"13-pp-ocr--"
></a>
### 1.3 PP-OCR模型
PaddleOCR 中集成了很多OCR算法,文本检测算法有DB、EAST、SAST等等,文本识别算法有CRNN、RARE、StarNet、Rosetta、SRN等算法。
其中PaddleOCR针对中英文自然场景通用OCR,推出了PP-OCR系列模型,PP-OCR模型由DB+CRNN算法组成,利用海量中文数据训练加上模型调优方法,在中文场景上具备较高的文本检测识别能力。并且PaddleOCR推出了高精度超轻量PP-OCRv2模型,检测模型仅3M,识别模型仅8.5M,利用
[
PaddleSlim
](
https://github.com/PaddlePaddle/PaddleSlim
)
的模型量化方法,可以在保持精度不降低的情况下,将检测模型压缩到0.8M,识别压缩到3M,更加适用于移动端部署场景。
doc/doc_ch/models_list.md
View file @
006d84bf
## OCR模型列表(V2.
0
,2021年
1月20
日更新)
## OCR模型列表(V2.
1
,2021年
9月6
日更新)
> **说明**
> 1. 2.0版模型和[1.1版模型](https://github.com/PaddlePaddle/PaddleOCR/blob/develop/doc/doc_ch/models_list.md) 的主要区别在于动态图训练vs.静态图训练,模型性能上无明显差距。
> 2. 本文档提供的是PPOCR自研模型列表,更多基于公开数据集的算法介绍与预训练模型可以参考:[算法概览文档](./algorithm_overview.md)。
> 1. 2.1版模型相比2.0版模型,2.1的模型在模型精度上做了提升
> 2. 2.0版模型和[1.1版模型](https://github.com/PaddlePaddle/PaddleOCR/blob/develop/doc/doc_ch/models_list.md) 的主要区别在于动态图训练vs.静态图训练,模型性能上无明显差距。
> 3. 本文档提供的是PPOCR自研模型列表,更多基于公开数据集的算法介绍与预训练模型可以参考:[算法概览文档](./algorithm_overview.md)。
-
[
一、文本检测模型
](
#文本检测模型
)
...
...
@@ -32,6 +33,8 @@ PaddleOCR提供的可下载模型包括`推理模型`、`训练模型`、`预训
|模型名称|模型简介|配置文件|推理模型大小|下载地址|
| --- | --- | --- | --- | --- |
|ch_PP-OCRv2_det_slim|slim量化+蒸馏版超轻量模型,支持中英文、多语种文本检测|
[
ch_PP-OCRv2_det_cml.yml
](
../../configs/det/ch_PP-OCRv2/ch_PP-OCR_det_cml.yml
)
| 3M |
[
推理模型
](
https://paddleocr.bj.bcebos.com/PP-OCRv2/chinese/ch_PP-OCRv2_det_slim_quant_infer.tar
)
|
|ch_PP-OCRv2_det|原始超轻量模型,支持中英文、多语种文本检测|
[
ch_PP-OCRv2_det_cml.yml
](
../../configs/det/ch_PP-OCRv2/ch_PP-OCR_det_cml.yml
)
|3M|
[
推理模型
](
https://paddleocr.bj.bcebos.com/PP-OCRv2/chinese/ch_PP-OCRv2_det_infer.tar
)
/
[
训练模型
](
https://paddleocr.bj.bcebos.com/PP-OCRv2/chinese/ch_PP-OCRv2_det_distill_train.tar
)
|
|ch_ppocr_mobile_slim_v2.0_det|slim裁剪版超轻量模型,支持中英文、多语种文本检测|
[
ch_det_mv3_db_v2.0.yml
](
../../configs/det/ch_ppocr_v2.0/ch_det_mv3_db_v2.0.yml
)
| 2.6M |
[
推理模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/slim/ch_ppocr_mobile_v2.0_det_prune_infer.tar
)
|
|ch_ppocr_mobile_v2.0_det|原始超轻量模型,支持中英文、多语种文本检测|
[
ch_det_mv3_db_v2.0.yml
](
../../configs/det/ch_ppocr_v2.0/ch_det_mv3_db_v2.0.yml
)
|3M|
[
推理模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_mobile_v2.0_det_infer.tar
)
/
[
训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_mobile_v2.0_det_train.tar
)
|
|ch_ppocr_server_v2.0_det|通用模型,支持中英文、多语种文本检测,比超轻量模型更大,但效果更好|
[
ch_det_res18_db_v2.0.yml
](
../../configs/det/ch_ppocr_v2.0/ch_det_res18_db_v2.0.yml
)
|47M|
[
推理模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_server_v2.0_det_infer.tar
)
/
[
训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_server_v2.0_det_train.tar
)
|
...
...
@@ -45,6 +48,8 @@ PaddleOCR提供的可下载模型包括`推理模型`、`训练模型`、`预训
|模型名称|模型简介|配置文件|推理模型大小|下载地址|
| --- | --- | --- | --- | --- |
|ch_PP-OCRv2_rec_slim|slim量化版超轻量模型,支持中英文、数字识别|
[
ch_PP-OCRv2_rec.yml
](
../../configs/rec/ch_PP-OCRv2/ch_PP-OCRv2_rec.yml
)
| 9M |
[
推理模型
](
https://paddleocr.bj.bcebos.com/PP-OCRv2/chinese/ch_PP-OCRv2_rec_slim_quant_infer.tar
)
/
[
训练模型
](
https://paddleocr.bj.bcebos.com/PP-OCRv2/chinese/ch_PP-OCRv2_rec_slim_quant_train.tar
)
|
|ch_PP-OCRv2_rec|原始超轻量模型,支持中英文、数字识别|
[
ch_PP-OCRv2_rec.yml
](
../../configs/rec/ch_PP-OCRv2/ch_PP-OCRv2_rec.yml
)
|8.5M|
[
推理模型
](
https://paddleocr.bj.bcebos.com/PP-OCRv2/chinese/ch_PP-OCRv2_rec_infer.tar
)
/
[
训练模型
](
https://paddleocr.bj.bcebos.com/PP-OCRv2/chinese/ch_PP-OCRv2_rec_train.tar
)
|
|ch_ppocr_mobile_slim_v2.0_rec|slim裁剪量化版超轻量模型,支持中英文、数字识别|
[
rec_chinese_lite_train_v2.0.yml
](
../../configs/rec/ch_ppocr_v2.0/rec_chinese_lite_train_v2.0.yml
)
| 6M |
[
推理模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_mobile_v2.0_rec_slim_infer.tar
)
/
[
训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_mobile_v2.0_rec_slim_train.tar
)
|
|ch_ppocr_mobile_v2.0_rec|原始超轻量模型,支持中英文、数字识别|
[
rec_chinese_lite_train_v2.0.yml
](
../../configs/rec/ch_ppocr_v2.0/rec_chinese_lite_train_v2.0.yml
)
|5.2M|
[
推理模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_mobile_v2.0_rec_infer.tar
)
/
[
训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_mobile_v2.0_rec_train.tar
)
/
[
预训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_mobile_v2.0_rec_pre.tar
)
|
|ch_ppocr_server_v2.0_rec|通用模型,支持中英文、数字识别|
[
rec_chinese_common_train_v2.0.yml
](
../../configs/rec/ch_ppocr_v2.0/rec_chinese_common_train_v2.0.yml
)
|94.8M|
[
推理模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_server_v2.0_rec_infer.tar
)
/
[
训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_server_v2.0_rec_train.tar
)
/
[
预训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_server_v2.0_rec_pre.tar
)
|
...
...
@@ -62,46 +67,6 @@ PaddleOCR提供的可下载模型包括`推理模型`、`训练模型`、`预训
<a
name=
"多语言识别模型"
></a>
#### 3. 多语言识别模型(更多语言持续更新中...)
**说明:**
新增的多语言模型的配置文件通过代码方式生成,您可以通过
`--help`
参数查看当前PaddleOCR支持生成哪些多语言的配置文件:
```
bash
# 该代码需要在指定目录运行
cd
{
your/path/
}
PaddleOCR/configs/rec/multi_language/
python3 generate_multi_language_configs.py
--help
```
下面以生成意大利语配置文件为例:
##### 1. 生成意大利语配置文件测试现有模型
如果您仅仅想用配置文件测试PaddleOCR提供的多语言模型可以通过下面命令生成默认的配置文件,使用PaddleOCR提供的小语种字典进行预测。
```
bash
# 该代码需要在指定目录运行
cd
{
your/path/
}
PaddleOCR/configs/rec/multi_language/
# 通过-l或者--language参数设置需要生成的语种的配置文件,该命令会将默认参数写入配置文件
python3 generate_multi_language_configs.py
-l
it
```
##### 2. 生成意大利语配置文件训练自己的数据
如果您想训练自己的小语种模型,可以准备好训练集文件、验证集文件、字典文件和训练数据路径,这里假设准备的意大利语的训练集、验证集、字典和训练数据路径为:
-
训练集:{your/path/}PaddleOCR/train_data/train_list.txt
-
验证集:{your/path/}PaddleOCR/train_data/val_list.txt
-
使用PaddleOCR提供的默认字典:{your/path/}PaddleOCR/ppocr/utils/dict/it_dict.txt
-
训练数据路径:{your/path/}PaddleOCR/train_data
使用以下命令生成配置文件:
```
bash
# 该代码需要在指定目录运行
cd
{
your/path/
}
PaddleOCR/configs/rec/multi_language/
# -l或者--language字段是必须的
# --train修改训练集,--val修改验证集,--data_dir修改数据集目录,-o修改对应默认参数
# --dict命令改变字典路径,示例使用默认字典路径则该参数可不填
python3 generate_multi_language_configs.py
-l
it
\
--train
train_data/train_list.txt
\
--val
train_data/val_list.txt
\
--data_dir
train_data
\
-o
Global.use_gpu
=
False
```
<a
name=
"多语言模型与配置文件"
></a>
##### 3. 多语言模型与配置文件
|模型名称|字典文件|模型简介|配置文件|推理模型大小|下载地址|
| --- | --- | --- | --- |--- | --- |
| french_mobile_v2.0_rec | ppocr/utils/dict/french_dict.txt |法文识别|
[
rec_french_lite_train.yml
](
../../configs/rec/multi_language/rec_french_lite_train.yml
)
|2.65M|
[
推理模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/multilingual/french_mobile_v2.0_rec_infer.tar
)
/
[
训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/multilingual/french_mobile_v2.0_rec_train.tar
)
|
...
...
@@ -125,13 +90,16 @@ python3 generate_multi_language_configs.py -l it \
|模型名称|模型简介|配置文件|推理模型大小|下载地址|
| --- | --- | --- | --- | --- |
|ch_ppocr_mobile_slim_v2.0_cls|slim量化版模型|
[
cls_mv3.yml
](
../../configs/cls/cls_mv3.yml
)
| 2.1M |
[
推理模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_mobile_v2.0_cls_slim_infer.tar
)
/
[
训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_mobile_v2.0_rec_slim_infer.tar
)
|
|ch_ppocr_mobile_v2.0_cls|原始模型|
[
cls_mv3.yml
](
../../configs/cls/cls_mv3.yml
)
|1.38M|
[
推理模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_mobile_v2.0_cls_infer.tar
)
/
[
训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_mobile_v2.0_cls_train.tar
)
|
|ch_ppocr_mobile_slim_v2.0_cls|slim量化版模型,对检测到的文本行文字角度分类|
[
cls_mv3.yml
](
../../configs/cls/cls_mv3.yml
)
| 2.1M |
[
推理模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_mobile_v2.0_cls_slim_infer.tar
)
/
[
训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_mobile_v2.0_rec_slim_infer.tar
)
|
|ch_ppocr_mobile_v2.0_cls|原始分类器模型,对检测到的文本行文字角度分类|
[
cls_mv3.yml
](
../../configs/cls/cls_mv3.yml
)
|1.38M|
[
推理模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_mobile_v2.0_cls_infer.tar
)
/
[
训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_mobile_v2.0_cls_train.tar
)
|
<a
name=
"Paddle-Lite模型"
></a>
### 四、Paddle-Lite 模型
|模型版本|模型简介|模型大小|检测模型|文本方向分类模型|识别模型|Paddle-Lite版本|
|---|---|---|---|---|---|---|
|V2.0|超轻量中文OCR 移动端模型|7.8M|
[
下载地址
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/lite/ch_ppocr_mobile_v2.0_det_opt.nb
)
|
[
下载地址
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/lite/ch_ppocr_mobile_v2.0_cls_opt.nb
)
|
[
下载地址
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/lite/ch_ppocr_mobile_v2.0_rec_opt.nb
)
|v2.9|
|V2.0(slim)|超轻量中文OCR 移动端模型|3.3M|
[
下载地址
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/lite/ch_ppocr_mobile_v2.0_det_slim_opt.nb
)
|
[
下载地址
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/lite/ch_ppocr_mobile_v2.0_cls_slim_opt.nb
)
|
[
下载地址
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/lite/ch_ppocr_mobile_v2.0_rec_slim_opt.nb
)
|v2.9|
|PP-OCRv2|蒸馏版超轻量中文OCR移动端模型|11M|
[
下载地址
](
https://paddleocr.bj.bcebos.com/PP-OCRv2/chinese/ch_PP-OCRv2_det_infer_opt.nb
)
|
[
下载地址
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/lite/ch_ppocr_mobile_v2.0_cls_opt.nb
)
|
[
下载地址
](
https://paddleocr.bj.bcebos.com/PP-OCRv2/chinese/ch_PP-OCRv2_rec_infer_opt.nb
)
|v2.9|
|PP-OCRv2(slim)|蒸馏版超轻量中文OCR移动端模型|4.9M|
[
下载地址
](
https://paddleocr.bj.bcebos.com/PP-OCRv2/chinese/ch_PP-OCRv2_det_slim_opt.nb
)
|
[
下载地址
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/lite/ch_ppocr_mobile_v2.0_cls_slim_opt.nb
)
|
[
下载地址
](
https://paddleocr.bj.bcebos.com/PP-OCRv2/chinese/ch_PP-OCRv2_rec_slim_opt.nb
)
|v2.9|
|V2.0|ppocr_v2.0超轻量中文OCR移动端模型|7.8M|
[
下载地址
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/lite/ch_ppocr_mobile_v2.0_det_opt.nb
)
|
[
下载地址
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/lite/ch_ppocr_mobile_v2.0_cls_opt.nb
)
|
[
下载地址
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/lite/ch_ppocr_mobile_v2.0_rec_opt.nb
)
|v2.9|
|V2.0(slim)|ppocr_v2.0超轻量中文OCR移动端模型|3.3M|
[
下载地址
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/lite/ch_ppocr_mobile_v2.0_det_slim_opt.nb
)
|
[
下载地址
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/lite/ch_ppocr_mobile_v2.0_cls_slim_opt.nb
)
|
[
下载地址
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/lite/ch_ppocr_mobile_v2.0_rec_slim_opt.nb
)
|v2.9|
doc/doc_ch/multi_languages.md
View file @
006d84bf
...
...
@@ -200,9 +200,9 @@ ppocr 支持使用自己的数据进行自定义训练或finetune, 其中识别
|英文|english|en| |乌克兰文|Ukranian|uk|
|法文|french|fr| |白俄罗斯文|Belarusian|be|
|德文|german|german| |泰卢固文|Telugu |te|
|日文|japan|japan| |
|
阿巴扎文
|
Abaza
|
abq|
|日文|japan|japan| | 阿巴扎文
|
Abaza
|
abq
|
|韩文|korean|korean| |泰米尔文|Tamil |ta|
|中文繁体|chinese traditional |ch
_tra
| |南非荷兰文 |Afrikaans |af|
|中文繁体|chinese traditional |ch
inese_cht
| |南非荷兰文 |Afrikaans |af|
|意大利文| Italian |it| |阿塞拜疆文 |Azerbaijani |az|
|西班牙文|Spanish |es| |波斯尼亚文|Bosnian|bs|
|葡萄牙文| Portuguese|pt| |捷克文|Czech|cs|
...
...
doc/doc_ch/paddleOCR_overview.md
0 → 100644
View file @
006d84bf
# PaddleOCR全景图与项目克隆
## 1. PaddleOCR全景图
PaddleOCR包含丰富的文本检测、文本识别以及端到端算法。结合实际测试与产业经验,PaddleOCR选择DB和CRNN作为基础的检测和识别模型,经过一系列优化策略提出面向产业应用的PP-OCR模型。PP-OCR模型针对通用场景,根据不同语种形成了PP-OCR模型库。基于PP-OCR的能力,PaddleOCR针对文档场景任务发布PP-Structure工具库,包含版面分析和表格识别两大任务。为了打通产业落地的全流程,PaddleOCR提供了规模化的数据生产工具和多种预测部署工具,助力开发者快速落地。
<div
align=
"center"
>
<img
src=
"../overview.png"
>
</div>
## 2. 项目克隆
### **2.1 克隆PaddleOCR repo代码**
```
【推荐】git clone https://github.com/PaddlePaddle/PaddleOCR
```
如果因为网络问题无法pull成功,也可选择使用码云上的托管:
```
git clone https://gitee.com/paddlepaddle/PaddleOCR
```
注:码云托管代码可能无法实时同步本github项目更新,存在3~5天延时,请优先使用推荐方式。
### **2.2 安装第三方库**
```
cd PaddleOCR
pip3 install -r requirements.txt
```
doc/doc_ch/quickstart.md
View file @
006d84bf
# PaddleOCR快速开始
# 中文OCR模型快速使用
## 1.环境配置
-
[
PaddleOCR快速开始
](
#paddleocr
)
请先参考
[
快速安装
](
./installation.md
)
配置PaddleOCR运行环境。
+
[
1. 安装PaddleOCR whl包
](
#1
)
*
[
2. 便捷使用
](
#2
)
+
[
2.1 命令行使用
](
#21
)
-
[
2.1.1 中英文模型
](
#211
)
-
[
2.1.2 多语言模型
](
#212
)
-
[
2.1.3 版面分析
](
#213
)
+
[
2.2 Python脚本使用
](
#22
)
-
[
2.2.1 中英文与多语言使用
](
#221
)
-
[
2.2.2 版面分析
](
#222
)
*注意:也可以通过 whl 包安装使用PaddleOCR,具体参考[Paddleocr Package使用说明](./whl.md)。*
<a
name=
"1"
></a>
##
2.inference模型下载
##
1. 安装PaddleOCR whl包
*
移动端和服务器端的检测与识别模型如下,更多模型下载(包括多语言),可以参考
[
PP-OCR v2.0 系列模型下载
](
../doc_ch/models_list.md
)
```
bash
pip
install
"paddleocr>=2.0.1"
# 推荐使用2.0.1+版本
```
| 模型简介 | 模型名称 |推荐场景 | 检测模型 | 方向分类器 | 识别模型 |
| ------------ | --------------- | ----------------|---- | ---------- | -------- |
| 中英文超轻量OCR模型(8.1M) | ch_ppocr_mobile_v2.0_xx |移动端&服务器端|
[
推理模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_mobile_v2.0_det_infer.tar
)
/
[
预训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_mobile_v2.0_det_train.tar
)
|
[
推理模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_mobile_v2.0_cls_infer.tar
)
/
[
预训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_mobile_v2.0_cls_train.tar
)
|
[
推理模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_mobile_v2.0_rec_infer.tar
)
/
[
预训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_mobile_v2.0_rec_pre.tar
)
|
| 中英文通用OCR模型(143M) | ch_ppocr_server_v2.0_xx |服务器端 |
[
推理模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_server_v2.0_det_infer.tar
)
/
[
预训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_server_v2.0_det_train.tar
)
|
[
推理模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_mobile_v2.0_cls_infer.tar
)
/
[
预训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_mobile_v2.0_cls_train.tar
)
|
[
推理模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_server_v2.0_rec_infer.tar
)
/
[
预训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_server_v2.0_rec_pre.tar
)
|
-
对于Windows环境用户:
直接通过pip安装的shapely库可能出现
`[winRrror 126] 找不到指定模块的问题`
。建议从
[
这里
](
https://www.lfd.uci.edu/~gohlke/pythonlibs/#shapely
)
下载shapely安装包完成安装,
*
windows 环境下如果没有安装wget,下载模型时可将链接复制到浏览器中下载,并解压放置在相应目录下
-
使用
**版面分析**
功能时,运行以下命令
**安装 Layout-Parser**
复制上表中的检测和识别的
`inference模型`
下载地址,并解压
```
bash
pip3
install
-U
https://paddleocr.bj.bcebos.com/whl/layoutparser-0.0.0-py3-none-any.whl
```
```
mkdir inference && cd inference
# 下载检测模型并解压
wget {url/of/detection/inference_model} && tar xf {name/of/detection/inference_model/package}
# 下载识别模型并解压
wget {url/of/recognition/inference_model} && tar xf {name/of/recognition/inference_model/package}
# 下载方向分类器模型并解压
wget {url/of/classification/inference_model} && tar xf {name/of/classification/inference_model/package}
cd ..
```
以超轻量级模型为例:
<a
name=
"2"
></a>
## 2. 便捷使用
<a
name=
"21"
></a>
### 2.1 命令行使用
PaddleOCR提供了一系列测试图片,点击
[
这里
](
https://paddleocr.bj.bcebos.com/dygraph_v2.1/ppocr_img.zip
)
下载并解压,然后在终端中切换到相应目录
```
mkdir inference && cd inference
# 下载超轻量级中文OCR模型的检测模型并解压
wget https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_mobile_v2.0_det_infer.tar && tar xf ch_ppocr_mobile_v2.0_det_infer.tar
# 下载超轻量级中文OCR模型的识别模型并解压
wget https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_mobile_v2.0_rec_infer.tar && tar xf ch_ppocr_mobile_v2.0_rec_infer.tar
# 下载超轻量级中文OCR模型的文本方向分类器模型并解压
wget https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_mobile_v2.0_cls_infer.tar && tar xf ch_ppocr_mobile_v2.0_cls_infer.tar
cd ..
cd /path/to/ppocr_img
```
解压完毕后应有如下文件结构:
如果不使用提供的测试图片,可以将下方
`--image_dir`
参数替换为相应的测试图片路径
<a
name=
"211"
></a>
#### 2.1.1 中英文模型
*
检测+方向分类器+识别全流程:设置方向分类器参数
`--use_angle_cls true`
后可对竖排文本进行识别。
```
bash
paddleocr
--image_dir
./imgs/11.jpg
--use_angle_cls
true
```
结果是一个list,每个item包含了文本框,文字和识别置信度
```
bash
[[[
24.0, 36.0],
[
304.0, 34.0],
[
304.0, 72.0],
[
24.0, 74.0]],
[
'纯臻营养护发素'
, 0.964739]]
[[[
24.0, 80.0],
[
172.0, 80.0],
[
172.0, 104.0],
[
24.0, 104.0]],
[
'产品信息/参数'
, 0.98069626]]
[[[
24.0, 109.0],
[
333.0, 109.0],
[
333.0, 136.0],
[
24.0, 136.0]],
[
'(45元/每公斤,100公斤起订)'
, 0.9676722]]
......
```
-
单独使用检测:设置
`--rec`
为
`false`
```
bash
paddleocr
--image_dir
./imgs/11.jpg
--rec
false
```
结果是一个list,每个item只包含文本框
```
bash
[[
26.0, 457.0],
[
137.0, 457.0],
[
137.0, 477.0],
[
26.0, 477.0]]
[[
25.0, 425.0],
[
372.0, 425.0],
[
372.0, 448.0],
[
25.0, 448.0]]
[[
128.0, 397.0],
[
273.0, 397.0],
[
273.0, 414.0],
[
128.0, 414.0]]
......
```
-
单独使用识别:设置
`--det`
为
`false`
```
bash
paddleocr
--image_dir
./imgs_words/ch/word_1.jpg
--det
false
```
结果是一个list,每个item只包含识别结果和识别置信度
```
bash
[
'韩国小馆'
, 0.9907421]
```
如需使用2.0模型,请指定参数
`--version PP-OCR`
,paddleocr默认使用2.1模型(
`--versioin PP-OCRv2`
)。更多whl包使用可参考
[
whl包文档
](
./whl.md
)
<a
name=
"212"
></a>
#### 2.1.2 多语言模型
Paddleocr目前支持80个语种,可以通过修改
`--lang`
参数进行切换,对于英文模型,指定
`--lang=en`
。
```
bash
paddleocr
--image_dir
./imgs_en/254.jpg
--lang
=
en
```
├── ch_ppocr_mobile_v2.0_cls_infer
│ ├── inference.pdiparams
│ ├── inference.pdiparams.info
│ └── inference.pdmodel
├── ch_ppocr_mobile_v2.0_det_infer
│ ├── inference.pdiparams
│ ├── inference.pdiparams.info
│ └── inference.pdmodel
├── ch_ppocr_mobile_v2.0_rec_infer
├── inference.pdiparams
├── inference.pdiparams.info
└── inference.pdmodel
<div
align=
"center"
>
<img
src=
"../imgs_en/254.jpg"
width=
"300"
height=
"600"
>
<img
src=
"../imgs_results/multi_lang/img_02.jpg"
width=
"600"
height=
"600"
>
</div>
结果是一个list,每个item包含了文本框,文字和识别置信度
```
text
[('PHO CAPITAL', 0.95723116), [[66.0, 50.0], [327.0, 44.0], [327.0, 76.0], [67.0, 82.0]]]
[('107 State Street', 0.96311164), [[72.0, 90.0], [451.0, 84.0], [452.0, 116.0], [73.0, 121.0]]]
[('Montpelier Vermont', 0.97389287), [[69.0, 132.0], [501.0, 126.0], [501.0, 158.0], [70.0, 164.0]]]
[('8022256183', 0.99810505), [[71.0, 175.0], [363.0, 170.0], [364.0, 202.0], [72.0, 207.0]]]
[('REG 07-24-201706:59 PM', 0.93537045), [[73.0, 299.0], [653.0, 281.0], [654.0, 318.0], [74.0, 336.0]]]
[('045555', 0.99346405), [[509.0, 331.0], [651.0, 325.0], [652.0, 356.0], [511.0, 362.0]]]
[('CT1', 0.9988654), [[535.0, 367.0], [654.0, 367.0], [654.0, 406.0], [535.0, 406.0]]]
......
```
## 3.单张图像或者图像集合预测
常用的多语言简写包括
以下代码实现了文本检测、方向分类器和识别串联推理,在执行预测时,需要通过参数image_dir指定单张图像或者图像集合的路径、参数
`det_model_dir`
指定检测inference模型的路径、参数
`rec_model_dir`
指定识别inference模型的路径、参数
`use_angle_cls`
指定是否使用方向分类器、参数
`cls_model_dir`
指定方向分类器inference模型的路径、参数
`use_space_char`
指定是否预测空格字符。可视化识别结果默认保存到
`./inference_results`
文件夹里面。
| 语种 | 缩写 | | 语种 | 缩写 | | 语种 | 缩写 |
| -------- | ----------- | ---- | -------- | ------ | ---- | -------- | ------ |
| 中文 | ch | | 法文 | fr | | 日文 | japan |
| 英文 | en | | 德文 | german | | 韩文 | korean |
| 繁体中文 | chinese_cht | | 意大利文 | it | | 俄罗斯文 | ru |
```
bash
全部语种及其对应的缩写列表可查看
[
多语言模型教程
](
./multi_languages.md
)
<a
name=
"213"
></a>
#### 2.1.3 版面分析
# 预测image_dir指定的单张图像
python3 tools/infer/predict_system.py
--image_dir
=
"./doc/imgs/11.jpg"
--det_model_dir
=
"./inference/ch_ppocr_mobile_v2.0_det_infer/"
--rec_model_dir
=
"./inference/ch_ppocr_mobile_v2.0_rec_infer/"
--cls_model_dir
=
"./inference/ch_ppocr_mobile_v2.0_cls_infer/"
--use_angle_cls
=
True
--use_space_char
=
True
版面分析是指对文档图片中的文字、标题、列表、图片和表格5类区域进行划分。对于前三类区域,直接使用OCR模型完成对应区域文字检测与识别,并将结果保存在txt中。对于表格类区域,经过表格结构化处理后,表格图片转换为相同表格样式的Excel文件。图片区域会被单独裁剪成图像。
# 预测image_dir指定的图像集合
python3 tools/infer/predict_system.py
--image_dir
=
"./doc/imgs/"
--det_model_dir
=
"./inference/ch_ppocr_mobile_v2.0_det_infer/"
--rec_model_dir
=
"./inference/ch_ppocr_mobile_v2.0_rec_infer/"
--cls_model_dir
=
"./inference/ch_ppocr_mobile_v2.0_cls_infer/"
--use_angle_cls
=
True
--use_space_char
=
True
使用PaddleOCR的版面分析功能,需要指定
`--type=structure`
# 如果想使用CPU进行预测,需设置use_gpu参数为False
p
ython3 tools/infer/predict_system.py
--image_dir
=
"
./
doc/imgs/11.jpg"
--det_model_dir
=
"./inference/ch_ppocr_mobile_v2.0_det_infer/"
--rec_model_dir
=
"./inference/ch_ppocr_mobile_v2.0_rec_infer/"
--cls_model_dir
=
"./inference/ch_ppocr_mobile_v2.0_cls_infer/"
--use_angle_cls
=
True
--use_space_char
=
True
--use_gpu
=
Fals
e
```
bash
p
addleocr
--image_dir
=
./
table/1.png
--type
=
structur
e
```
-
通用中文OCR模型
-
**返回结果说明**
PP-Structure的返回结果为一个dict组成的list,示例如下
```
shell
[{
'type'
:
'Text'
,
'bbox'
:
[
34, 432, 345, 462],
'res'
:
([[
36.0, 437.0, 341.0, 437.0, 341.0, 446.0, 36.0, 447.0],
[
41.0, 454.0, 125.0, 453.0, 125.0, 459.0, 41.0, 460.0]],
[(
'Tigure-6. The performance of CNN and IPT models using difforen'
, 0.90060663
)
,
(
'Tent '
, 0.465441
)])
}
]
```
其中各个字段说明如下
| 字段 | 说明 |
| ---- | ------------------------------------------------------------ |
| type | 图片区域的类型 |
| bbox | 图片区域的在原图的坐标,分别[左上角x,左上角y,右下角x,右下角y] |
| res | 图片区域的OCR或表格识别结果。
<br>
表格: 表格的HTML字符串;
<br>
OCR: 一个包含各个单行文字的检测坐标和识别结果的元组 |
运行完成后,每张图片会在
`output`
字段指定的目录下有一个同名目录,图片里的每个表格会存储为一个excel,图片区域会被裁剪之后保存下来,excel文件和图片名为表格在图片里的坐标。
```
/output/table/1/
└─ res.txt
└─ [454, 360, 824, 658].xlsx 表格识别结果
└─ [16, 2, 828, 305].jpg 被裁剪出的图片区域
└─ [17, 361, 404, 711].xlsx 表格识别结果
```
-
**参数说明**
| 字段 | 说明 | 默认值 |
| --------------- | ---------------------------------------- | -------------------------------------------- |
| output | excel和识别结果保存的地址 | ./output/table |
| table_max_len | 表格结构模型预测时,图像的长边resize尺度 | 488 |
| table_model_dir | 表格结构模型 inference 模型地址 | None |
| table_char_type | 表格结构模型所用字典地址 | ../ppocr/utils/dict/table_structure_dict.txt |
大部分参数和paddleocr whl包保持一致,见
[
whl包文档
](
./whl.md
)
<a
name=
"22"
></a>
### 2.2 Python脚本使用
<a
name=
"221"
></a>
#### 2.2.1 中英文与多语言使用
请按照上述步骤下载相应的模型,并且更新相关的参数,示例如下:
通过Python脚本使用PaddleOCR whl包,whl包会自动下载ppocr轻量级模型作为默认模型。
*
检测+方向分类器+识别全流程
```
python
from
paddleocr
import
PaddleOCR
,
draw_ocr
# Paddleocr目前支持的多语言语种可以通过修改lang参数进行切换
# 例如`ch`, `en`, `fr`, `german`, `korean`, `japan`
ocr
=
PaddleOCR
(
use_angle_cls
=
True
,
lang
=
"ch"
)
# need to run only once to download and load model into memory
img_path
=
'./imgs/11.jpg'
result
=
ocr
.
ocr
(
img_path
,
cls
=
True
)
for
line
in
result
:
print
(
line
)
# 显示结果
from
PIL
import
Image
image
=
Image
.
open
(
img_path
).
convert
(
'RGB'
)
boxes
=
[
line
[
0
]
for
line
in
result
]
txts
=
[
line
[
1
][
0
]
for
line
in
result
]
scores
=
[
line
[
1
][
1
]
for
line
in
result
]
im_show
=
draw_ocr
(
image
,
boxes
,
txts
,
scores
,
font_path
=
'./fonts/simfang.ttf'
)
im_show
=
Image
.
fromarray
(
im_show
)
im_show
.
save
(
'result.jpg'
)
```
结果是一个list,每个item包含了文本框,文字和识别置信度
```
bash
# 预测image_dir指定的单张图像
python3 tools/infer/predict_system.py
--image_dir
=
"./doc/imgs/11.jpg"
--det_model_dir
=
"./inference/ch_ppocr_server_v2.0_det_infer/"
--rec_model_dir
=
"./inference/ch_ppocr_server_v2.0_rec_infer/"
--cls_model_dir
=
"./inference/ch_ppocr_mobile_v2.0_cls_infer/"
--use_angle_cls
=
True
--use_space_char
=
True
[[[
24.0, 36.0],
[
304.0, 34.0],
[
304.0, 72.0],
[
24.0, 74.0]],
[
'纯臻营养护发素'
, 0.964739]]
[[[
24.0, 80.0],
[
172.0, 80.0],
[
172.0, 104.0],
[
24.0, 104.0]],
[
'产品信息/参数'
, 0.98069626]]
[[[
24.0, 109.0],
[
333.0, 109.0],
[
333.0, 136.0],
[
24.0, 136.0]],
[
'(45元/每公斤,100公斤起订)'
, 0.9676722]]
......
```
*
注意:
-
如果希望使用不支持空格的识别模型,在预测的时候需要注意:请将代码更新到最新版本,并添加参数
`--use_space_char=False`
。
-
如果不希望使用方向分类器,在预测的时候需要注意:请将代码更新到最新版本,并添加参数
`--use_angle_cls=False`
。
结果可视化
<div
align=
"center"
>
<img
src=
"../imgs_results/whl/11_det_rec.jpg"
width=
"800"
>
</div>
<a
name=
"222"
></a>
更多的文本检测、识别串联推理使用方式请参考文档教程中
[
基于Python预测引擎推理
](
./inference.md
)
。
#### 2.2.2 版面分析
此外,文档教程中也提供了中文OCR模型的其他预测部署方式:
-
[
基于C++预测引擎推理
](
../../deploy/cpp_infer/readme.md
)
-
[
服务部署
](
../../deploy/hubserving
)
-
[
端侧部署(目前只支持静态图)
](
https://github.com/PaddlePaddle/PaddleOCR/tree/develop/deploy/lite
)
```
python
import
os
import
cv2
from
paddleocr
import
PPStructure
,
draw_structure_result
,
save_structure_res
table_engine
=
PPStructure
(
show_log
=
True
)
save_folder
=
'./output/table'
img_path
=
'./table/paper-image.jpg'
img
=
cv2
.
imread
(
img_path
)
result
=
table_engine
(
img
)
save_structure_res
(
result
,
save_folder
,
os
.
path
.
basename
(
img_path
).
split
(
'.'
)[
0
])
for
line
in
result
:
line
.
pop
(
'img'
)
print
(
line
)
from
PIL
import
Image
font_path
=
'./fonts/simfang.ttf'
# PaddleOCR下提供字体包
image
=
Image
.
open
(
img_path
).
convert
(
'RGB'
)
im_show
=
draw_structure_result
(
image
,
result
,
font_path
=
font_path
)
im_show
=
Image
.
fromarray
(
im_show
)
im_show
.
save
(
'result.jpg'
)
```
doc/doc_ch/rec_algo_compare.png
0 → 100644
View file @
006d84bf
224 KB
doc/doc_ch/recognition.md
View file @
006d84bf
#
# 文字识别
# 文字识别
本文提供了PaddleOCR文本识别任务的全流程指南,包括数据准备、模型训练、调优、评估、预测,各个阶段的详细说明:
-
[
1 数据准备
](
#数据准备
)
-
[
1.1 自定义数据集
](
#自定义数据集
)
-
[
1.2 数据下载
](
#数据下载
)
-
[
1.3 字典
](
#字典
)
-
[
1.4 支持空格
](
#支持空格
)
-
[
2 启动训练
](
#启动训练
)
-
[
2.1 数据增强
](
#数据增强
)
-
[
2.2 训练
](
#训练
)
-
[
2.3 小语种
](
#小语种
)
-
[
2.2 通用模型训练
](
#通用模型训练
)
-
[
2.3 多语言模型训练
](
#多语言模型训练
)
-
[
3 评估
](
#评估
)
-
[
4 预测
](
#预测
)
-
[
4.1 训练引擎预测
](
#训练引擎预测
)
-
[
5 转Inference模型测试
](
#Inference
)
<a
name=
"数据准备"
></a>
##
#
1. 数据准备
## 1. 数据准备
PaddleOCR 支持两种数据格式:
-
`lmdb`
用于训练以lmdb格式存储的数据集;
-
`通用数据`
用于训练以文本文件存储的数据集
:
-
`lmdb`
用于训练以lmdb格式存储的数据集
(LMDBDataSet)
;
-
`通用数据`
用于训练以文本文件存储的数据集
(SimpleDataSet);
训练数据的默认存储路径是
`PaddleOCR/train_data`
,如果您的磁盘上已有数据集,只需创建软链接至数据集目录:
...
...
@@ -36,7 +34,7 @@ mklink /d <path/to/paddle_ocr>/train_data/dataset <path/to/dataset>
```
<a
name=
"准备数据集"
></a>
###
#
1.1 自定义数据集
### 1.1 自定义数据集
下面以通用数据集为例, 介绍如何准备数据集:
*
训练集
...
...
@@ -82,13 +80,15 @@ train_data/rec/train/word_002.jpg 用科技让复杂的世界更简单
<a
name=
"数据下载"
></a>
1.
2 数据下载
### 1.2 数据下载
-
ICDAR2015
若您本地没有数据集,可以在官网下载
[
icdar
2015
](
http://rrc.cvc.uab.es/?ch=4&com=downloads
)
数据,用于快速验证。也可以参考
[
DTRB
](
https://github.com/clovaai/deep-text-recognition-benchmark#download-lmdb-dataset-for-traininig-and-evaluation-from-here
)
,下载 benchmark 所需的lmdb格式数据集。
若您本地没有数据集,可以在官网下载
[
ICDAR
2015
](
http://rrc.cvc.uab.es/?ch=4&com=downloads
)
数据,用于快速验证。也可以参考
[
DTRB
](
https://github.com/clovaai/deep-text-recognition-benchmark#download-lmdb-dataset-for-traininig-and-evaluation-from-here
)
,下载 benchmark 所需的lmdb格式数据集。
如果
你使用的是icdar2015的公开数据集,PaddleOCR 提供了一份用于训练 icdar2015 数据集的标签文件,通过以下方式下载:
如果
希望复现SAR的论文指标,需要下载
[
SynthAdd
](
https://pan.baidu.com/share/init?surl=uV0LtoNmcxbO-0YA7Ch4dg
)
, 提取码:627x。此外,真实数据集icdar2013, icdar2015, cocotext, IIIT5也作为训练数据的一部分。具体数据细节可以参考论文SAR。
如果
希望复现SRN的论文指标,需要下载离线
[
增广数据
](
https://pan.baidu.com/s/1-HSZ-ZVdqBF2HaBZ5pRAKA
)
,提取码: y3ry。增广数据是由MJSynth和SynthText做旋转和扰动得到的。数据下载完成后请解压到 {your_path}/PaddleOCR/train_data/data_lmdb_release/training/ 路径下。
如果
你使用的是icdar2015的公开数据集,PaddleOCR 提供了一份用于训练 ICDAR2015 数据集的标签文件,通过以下方式下载:
```
# 训练集标签
...
...
@@ -97,15 +97,25 @@ wget -P ./train_data/ic15_data https://paddleocr.bj.bcebos.com/dataset/rec_gt_t
wget -P ./train_data/ic15_data https://paddleocr.bj.bcebos.com/dataset/rec_gt_test.txt
```
PaddleOCR 也提供了数据格式转换脚本,可以将官网 label 转换支持的数据格式。 数据转换工具在
`ppocr/utils/gen_label.py`
, 这里以训练集为例:
PaddleOCR 也提供了数据格式转换脚本,可以将
ICDAR
官网 label 转换
为PaddleOCR
支持的数据格式。 数据转换工具在
`ppocr/utils/gen_label.py`
, 这里以训练集为例:
```
# 将官网下载的标签文件转换为 rec_gt_label.txt
python gen_label.py --mode="rec" --input_path="{path/of/origin/label}" --output_label="rec_gt_label.txt"
```
数据样式格式如下,(a)为原始图片,(b)为每张图片对应的 Ground Truth 文本文件:

-
多语言数据集
多语言模型的训练数据集均为100w的合成数据,使用了开源合成工具
[
text_renderer
](
https://github.com/Sanster/text_renderer
)
,少量的字体可以通过下面两种方式下载。
*
[
百度网盘
](
https://pan.baidu.com/s/1bS_u207Rm7YbY33wOECKDA
)
提取码:frgi
*
[
google drive
](
https://drive.google.com/file/d/18cSWX7wXSy4G0tbKJ0d9PuIaiwRLHpjA/view
)
<a
name=
"字典"
></a>
1.
3 字典
###
1.3 字典
最后需要提供一个字典({word_dict_name}.txt),使模型在训练时,可以将所有出现的字符映射为字典的索引。
...
...
@@ -149,16 +159,29 @@ PaddleOCR内置了一部分字典,可以按需使用。
-
自定义字典
如需自定义dic文件,请在
`configs/rec/rec_icdar15_train.yml`
中添加
`character_dict_path`
字段, 指向您的字典路径。
并将
`character_type`
设置为
`ch`
。
<a
name=
"支持空格"
></a>
1.
4 添加空格类别
###
1.4 添加空格类别
如果希望支持识别"空格"类别, 请将yml文件中的
`use_space_char`
字段设置为
`True`
。
<a
name=
"启动训练"
></a>
### 2. 启动训练
## 2. 启动训练
<a
name=
"数据增强"
></a>
### 2.1 数据增强
PaddleOCR提供了多种数据增强方式,默认配置文件中已经添加了数据增广。
默认的扰动方式有:颜色空间转换(cvtColor)、模糊(blur)、抖动(jitter)、噪声(Gasuss noise)、随机切割(random crop)、透视(perspective)、颜色反转(reverse)、TIA数据增广。
训练过程中每种扰动方式以40%的概率被选择,具体代码实现请参考:
[
rec_img_aug.py
](
../../ppocr/data/imaug/rec_img_aug.py
)
*由于OpenCV的兼容性问题,扰动操作暂时只支持Linux*
<a
name=
"通用模型训练"
></a>
### 2.2 通用模型训练
PaddleOCR提供了训练脚本、评估脚本和预测脚本,本节将以 CRNN 识别模型为例:
...
...
@@ -178,23 +201,16 @@ tar -xf rec_mv3_none_bilstm_ctc_v2.0_train.tar && rm -rf rec_mv3_none_bilstm_ctc
*如果您安装的是cpu版本,请将配置文件中的 `use_gpu` 字段修改为false*
```
# GPU训练 支持单卡,多卡训练
,通过--gpus参数指定卡号
# GPU训练 支持单卡,多卡训练
# 训练icdar15英文数据 训练日志会自动保存为 "{save_model_dir}" 下的train.log
python3 -m paddle.distributed.launch --gpus '0,1,2,3' tools/train.py -c configs/rec/rec_icdar15_train.yml
```
<a
name=
"数据增强"
></a>
#### 2.1 数据增强
PaddleOCR提供了多种数据增强方式,如果您希望在训练时加入扰动,请在配置文件中设置
`distort: true`
。
#单卡训练(训练周期长,不建议)
python3 tools/train.py -c configs/rec/rec_icdar15_train.yml
默认的扰动方式有:颜色空间转换(cvtColor)、模糊(blur)、抖动(jitter)、噪声(Gasuss noise)、随机切割(random crop)、透视(perspective)、颜色反转(reverse)。
训练过程中每种扰动方式以50%的概率被选择,具体代码实现请参考:
[
img_tools.py
](
https://github.com/PaddlePaddle/PaddleOCR/blob/develop/ppocr/data/rec/img_tools.py
)
*由于OpenCV的兼容性问题,扰动操作暂时只支持Linux*
#多卡训练,通过--gpus参数指定卡号
python3 -m paddle.distributed.launch --gpus '0,1,2,3' tools/train.py -c configs/rec/rec_icdar15_train.yml
```
<a
name=
"训练"
></a>
#### 2.2 训练
PaddleOCR支持训练和评估交替进行, 可以在
`configs/rec/rec_icdar15_train.yml`
中修改
`eval_batch_step`
设置评估频率,默认每500个iter评估一次。评估过程中默认将最佳acc模型,保存为
`output/rec_CRNN/best_accuracy`
。
...
...
@@ -215,6 +231,11 @@ PaddleOCR支持训练和评估交替进行, 可以在 `configs/rec/rec_icdar15_t
| rec_mv3_tps_bilstm_att.yml | CRNN | Mobilenet_v3 | TPS | BiLSTM | att |
| rec_r34_vd_tps_bilstm_att.yml | CRNN | Resnet34_vd | TPS | BiLSTM | att |
| rec_r50fpn_vd_none_srn.yml | SRN | Resnet50_fpn_vd | None | rnn | srn |
| rec_mtb_nrtr.yml | NRTR | nrtr_mtb | None | transformer encoder | transformer decoder |
| rec_r31_sar.yml | SAR | ResNet31 | None | LSTM encoder | LSTM decoder |
| rec_resnet_stn_bilstm_att.yml | SEED | Aster_Resnet | STN | BiLSTM | att |
*
其中SEED模型需要额外加载FastText训练好的
[
语言模型
](
https://dl.fbaipublicfiles.com/fasttext/vectors-crawl/cc.en.300.bin.gz
)
训练中文数据,推荐使用
[
rec_chinese_lite_train_v2.0.yml
](
../../configs/rec/ch_ppocr_v2.0/rec_chinese_lite_train_v2.0.yml
)
,如您希望尝试其他算法在中文数据集上的效果,请参考下列说明修改配置文件:
...
...
@@ -224,8 +245,6 @@ Global:
...
# 添加自定义字典,如修改字典请将路径指向新字典
character_dict_path: ppocr/utils/ppocr_keys_v1.txt
# 修改字符类型
character_type: ch
...
# 识别空格
use_space_char: True
...
...
@@ -282,105 +301,28 @@ Eval:
```
**注意,预测/评估时的配置文件请务必与训练一致。**
<a
name=
"
小语种
"
></a>
###
#
2.3
小语种
<a
name=
"
多语言模型训练
"
></a>
### 2.3
多语言模型训练
PaddleOCR目前已支持80种(除中文外)语种识别,
`configs/rec/multi_languages`
路径下提供了一个多语言的配置文件模版:
[
rec_multi_language_lite_train.yml
](
../../configs/rec/multi_language/rec_multi_language_lite_train.yml
)
。
您有两种方式创建所需的配置文件:
1.
通过脚本自动生成
[
generate_multi_language_configs.py
](
../../configs/rec/multi_language/generate_multi_language_configs.py
)
可以帮助您生成多语言模型的配置文件
-
以意大利语为例,如果您的数据是按如下格式准备的:
```
|-train_data
|- it_train.txt # 训练集标签
|- it_val.txt # 验证集标签
|- data
|- word_001.jpg
|- word_002.jpg
|- word_003.jpg
| ...
```
可以使用默认参数,生成配置文件:
```bash
# 该代码需要在指定目录运行
cd PaddleOCR/configs/rec/multi_language/
# 通过-l或者--language参数设置需要生成的语种的配置文件,该命令会将默认参数写入配置文件
python3 generate_multi_language_configs.py -l it
```
-
如果您的数据放置在其他位置,或希望使用自己的字典,可以通过指定相关参数来生成配置文件:
```bash
# -l或者--language字段是必须的
# --train修改训练集,--val修改验证集,--data_dir修改数据集目录,--dict修改字典路径, -o修改对应默认参数
cd PaddleOCR/configs/rec/multi_language/
python3 generate_multi_language_configs.py -l it \ # 语种
--train {path/of/train_label.txt} \ # 训练标签文件的路径
--val {path/of/val_label.txt} \ # 验证集标签文件的路径
--data_dir {train_data/path} \ # 训练数据的根目录
--dict {path/of/dict} \ # 字典文件路径
-o Global.use_gpu=False # 是否使用gpu
...
```
意大利文由拉丁字母组成,因此执行完命令后会得到名为 rec_latin_lite_train.yml 的配置文件。
2.
手动修改配置文件
您也可以手动修改模版中的以下几个字段:
```
Global:
use_gpu: True
epoch_num: 500
...
character_type: it # 需要识别的语种
character_dict_path: {path/of/dict} # 字典文件所在路径
Train:
dataset:
name: SimpleDataSet
data_dir: train_data/ # 数据存放根目录
label_file_list: ["./train_data/train_list.txt"] # 训练集label路径
...
Eval:
dataset:
name: SimpleDataSet
data_dir: train_data/ # 数据存放根目录
label_file_list: ["./train_data/val_list.txt"] # 验证集label路径
...
```
目前PaddleOCR支持的多语言算法有:
| 配置文件 | 算法名称 | backbone | trans | seq | pred | language | character_type |
| :--------: | :-------: | :-------: | :-------: | :-----: | :-----: | :-----: | :-----: |
| rec_chinese_cht_lite_train.yml | CRNN | Mobilenet_v3 small 0.5 | None | BiLSTM | ctc | 中文繁体 | chinese_cht|
| rec_en_lite_train.yml | CRNN | Mobilenet_v3 small 0.5 | None | BiLSTM | ctc | 英语(区分大小写) | EN |
| rec_french_lite_train.yml | CRNN | Mobilenet_v3 small 0.5 | None | BiLSTM | ctc | 法语 | french |
| rec_ger_lite_train.yml | CRNN | Mobilenet_v3 small 0.5 | None | BiLSTM | ctc | 德语 | german |
| rec_japan_lite_train.yml | CRNN | Mobilenet_v3 small 0.5 | None | BiLSTM | ctc | 日语 | japan |
| rec_korean_lite_train.yml | CRNN | Mobilenet_v3 small 0.5 | None | BiLSTM | ctc | 韩语 | korean |
| rec_latin_lite_train.yml | CRNN | Mobilenet_v3 small 0.5 | None | BiLSTM | ctc | 拉丁字母 | latin |
| rec_arabic_lite_train.yml | CRNN | Mobilenet_v3 small 0.5 | None | BiLSTM | ctc | 阿拉伯字母 | ar |
| rec_cyrillic_lite_train.yml | CRNN | Mobilenet_v3 small 0.5 | None | BiLSTM | ctc | 斯拉夫字母 | cyrillic |
| rec_devanagari_lite_train.yml | CRNN | Mobilenet_v3 small 0.5 | None | BiLSTM | ctc | 梵文字母 | devanagari |
按语系划分,目前PaddleOCR支持的语种有:
| 配置文件 | 算法名称 | backbone | trans | seq | pred | language |
| :--------: | :-------: | :-------: | :-------: | :-----: | :-----: | :-----: |
| rec_chinese_cht_lite_train.yml | CRNN | Mobilenet_v3 small 0.5 | None | BiLSTM | ctc | 中文繁体 |
| rec_en_lite_train.yml | CRNN | Mobilenet_v3 small 0.5 | None | BiLSTM | ctc | 英语(区分大小写) |
| rec_french_lite_train.yml | CRNN | Mobilenet_v3 small 0.5 | None | BiLSTM | ctc | 法语 |
| rec_ger_lite_train.yml | CRNN | Mobilenet_v3 small 0.5 | None | BiLSTM | ctc | 德语 |
| rec_japan_lite_train.yml | CRNN | Mobilenet_v3 small 0.5 | None | BiLSTM | ctc | 日语 |
| rec_korean_lite_train.yml | CRNN | Mobilenet_v3 small 0.5 | None | BiLSTM | ctc | 韩语 |
| rec_latin_lite_train.yml | CRNN | Mobilenet_v3 small 0.5 | None | BiLSTM | ctc | 拉丁字母 |
| rec_arabic_lite_train.yml | CRNN | Mobilenet_v3 small 0.5 | None | BiLSTM | ctc | 阿拉伯字母 |
| rec_cyrillic_lite_train.yml | CRNN | Mobilenet_v3 small 0.5 | None | BiLSTM | ctc | 斯拉夫字母 |
| rec_devanagari_lite_train.yml | CRNN | Mobilenet_v3 small 0.5 | None | BiLSTM | ctc | 梵文字母 |
更多支持语种请参考:
[
多语言模型
](
https://github.com/PaddlePaddle/PaddleOCR/blob/release/2.1/doc/doc_ch/multi_languages.md#%E8%AF%AD%E7%A7%8D%E7%BC%A9%E5%86%99
)
多语言模型训练方式与中文模型一致,训练数据集均为100w的合成数据,少量的字体可以通过下面两种方式下载。
*
[
百度网盘
](
https://pan.baidu.com/s/1bS_u207Rm7YbY33wOECKDA
)
。提取码:frgi。
*
[
google drive
](
https://drive.google.com/file/d/18cSWX7wXSy4G0tbKJ0d9PuIaiwRLHpjA/view
)
如您希望在现有模型效果的基础上调优,请参考下列说明修改配置文件:
以
`rec_french_lite_train`
为例:
...
...
@@ -416,7 +358,7 @@ Eval:
...
```
<a
name=
"评估"
></a>
##
#
3 评估
## 3 评估
评估数据集可以通过
`configs/rec/rec_icdar15_train.yml`
修改Eval中的
`label_file_path`
设置。
...
...
@@ -426,14 +368,29 @@ python3 -m paddle.distributed.launch --gpus '0' tools/eval.py -c configs/rec/rec
```
<a
name=
"预测"
></a>
### 4 预测
<a
name=
"训练引擎预测"
></a>
#### 4.1 训练引擎的预测
## 4 预测
使用 PaddleOCR 训练好的模型,可以通过以下脚本进行快速预测。
默认预测图片存储在
`infer_img`
里,通过
`-o Global.checkpoints`
指定权重:
默认预测图片存储在
`infer_img`
里,通过
`-o Global.checkpoints`
加载训练好的参数文件:
根据配置文件中设置的的
`save_model_dir`
和
`save_epoch_step`
字段,会有以下几种参数被保存下来:
```
output/rec/
├── best_accuracy.pdopt
├── best_accuracy.pdparams
├── best_accuracy.states
├── config.yml
├── iter_epoch_3.pdopt
├── iter_epoch_3.pdparams
├── iter_epoch_3.states
├── latest.pdopt
├── latest.pdparams
├── latest.states
└── train.log
```
其中 best_accuracy.
* 是评估集上的最优模型;iter_epoch_x.*
是以
`save_epoch_step`
为间隔保存下来的模型;latest.
*
是最后一个epoch的模型。
```
# 预测英文结果
...
...
@@ -469,3 +426,37 @@ python3 tools/infer_rec.py -c configs/rec/ch_ppocr_v2.0/rec_chinese_lite_train_v
infer_img: doc/imgs_words/ch/word_1.jpg
result: ('韩国小馆', 0.997218)
```
<a
name=
"Inference"
></a>
## 5. 转Inference模型测试
识别模型转inference模型与检测的方式相同,如下:
```
# -c 后面设置训练算法的yml配置文件
# -o 配置可选参数
# Global.pretrained_model 参数设置待转换的训练模型地址,不用添加文件后缀 .pdmodel,.pdopt或.pdparams。
# Global.save_inference_dir参数设置转换的模型将保存的地址。
python3 tools/export_model.py -c configs/rec/ch_ppocr_v2.0/rec_chinese_lite_train_v2.0.yml -o Global.pretrained_model=./ch_lite/ch_ppocr_mobile_v2.0_rec_train/best_accuracy Global.save_inference_dir=./inference/rec_crnn/
```
**注意:**
如果您是在自己的数据集上训练的模型,并且调整了中文字符的字典文件,请注意修改配置文件中的
`character_dict_path`
是否是所需要的字典文件。
转换成功后,在目录下有三个文件:
```
/inference/rec_crnn/
├── inference.pdiparams # 识别inference模型的参数文件
├── inference.pdiparams.info # 识别inference模型的参数信息,可忽略
└── inference.pdmodel # 识别inference模型的program文件
```
-
自定义模型推理
如果训练时修改了文本的字典,在使用inference模型预测时,需要通过
`--rec_char_dict_path`
指定使用的字典路径,并且设置
`rec_char_type=ch`
```
python3 tools/infer/predict_rec.py --image_dir="./doc/imgs_words_en/word_336.png" --rec_model_dir="./your inference model" --rec_image_shape="3, 32, 100" --rec_char_type="ch" --rec_char_dict_path="your text dict path"
```
Prev
1
2
3
4
5
6
7
8
9
10
…
13
Next
Write
Preview
Markdown
is supported
0%
Try again
or
attach a new file
.
Attach a file
Cancel
You are about to add
0
people
to the discussion. Proceed with caution.
Finish editing this message first!
Cancel
Please
register
or
sign in
to comment