"vscode:/vscode.git/clone" did not exist on "5f8051180e3b9aeafc153f6b5056e7358a939c88"
readme.md 10 KB
Newer Older
dyning's avatar
dyning committed
1
# 端侧部署
LDOUBLEV's avatar
LDOUBLEV committed
2

grasswolfs's avatar
grasswolfs committed
3
4
5
本教程将介绍基于[Paddle Lite](https://github.com/PaddlePaddle/Paddle-Lite) 在移动端部署PaddleOCR超轻量中文检测、识别模型的详细步骤。

Paddle Lite是飞桨轻量化推理引擎,为手机、IOT端提供高效推理能力,并广泛整合跨平台硬件,为端侧部署及应用落地问题提供轻量化的部署方案。
LDOUBLEV's avatar
LDOUBLEV committed
6
7
8
9


## 1. 准备环境

LDOUBLEV's avatar
LDOUBLEV committed
10
### 运行准备
grasswolfs's avatar
grasswolfs committed
11
- 电脑(编译Paddle Lite)
LDOUBLEV's avatar
LDOUBLEV committed
12
13
- 安卓手机(armv7或armv8)

LDOUBLEV's avatar
LDOUBLEV committed
14
### 1.1 准备交叉编译环境
grasswolfs's avatar
grasswolfs committed
15
交叉编译环境用于编译 Paddle Lite 和 PaddleOCR 的C++ demo。
LDOUBLEV's avatar
LDOUBLEV committed
16
支持多种开发环境,不同开发环境的编译流程请参考对应文档。
grasswolfs's avatar
grasswolfs committed
17

LDOUBLEV's avatar
LDOUBLEV committed
18
19
20
21
22
1. [Docker](https://paddle-lite.readthedocs.io/zh/latest/user_guides/source_compile.html#docker)
2. [Linux](https://paddle-lite.readthedocs.io/zh/latest/user_guides/source_compile.html#android)
3. [MAC OS](https://paddle-lite.readthedocs.io/zh/latest/user_guides/source_compile.html#id13)
4. [Windows](https://paddle-lite.readthedocs.io/zh/latest/demo_guides/x86.html#windows)

LDOUBLEV's avatar
LDOUBLEV committed
23
### 1.2 准备预测库
LDOUBLEV's avatar
LDOUBLEV committed
24

LDOUBLEV's avatar
LDOUBLEV committed
25
预测库有两种获取方式:
LDOUBLEV's avatar
LDOUBLEV committed
26
- 1. 直接下载,下载[链接](https://paddle-lite.readthedocs.io/zh/latest/user_guides/release_lib.html#android-toolchain-gcc).
grasswolfs's avatar
grasswolfs committed
27
      注意选择`with_extra=ON,with_cv=ON`的下载链接。
LDOUBLEV's avatar
LDOUBLEV committed
28
29
30
31
- 2. 编译Paddle-Lite得到,Paddle-Lite的编译方式如下:
```
git clone https://github.com/PaddlePaddle/Paddle-Lite.git
cd Paddle-Lite
LDOUBLEV's avatar
LDOUBLEV committed
32
git checkout 2.6.1
LDOUBLEV's avatar
LDOUBLEV committed
33
34
35
./lite/tools/build_android.sh  --arch=armv8  --with_cv=ON --with_extra=ON
```

LDOUBLEV's avatar
LDOUBLEV committed
36
注意:编译Paddle-Lite获得预测库时,需要打开`--with_cv=ON --with_extra=ON`两个选项,`--arch`表示`arm`版本,这里指定为armv8,
LDOUBLEV's avatar
LDOUBLEV committed
37
38
39
更多编译命令
介绍请参考[链接](https://paddle-lite.readthedocs.io/zh/latest/user_guides/Compile/Android.html#id2)

LDOUBLEV's avatar
LDOUBLEV committed
40
直接下载预测库并解压后,可以得到`inference_lite_lib.android.armv8/`文件夹,通过编译Paddle-Lite得到的预测库位于
LDOUBLEV's avatar
LDOUBLEV committed
41
`Paddle-Lite/build.lite.android.armv8.gcc/inference_lite_lib.android.armv8/`文件夹下。
LDOUBLEV's avatar
LDOUBLEV committed
42
预测库的文件目录如下:
LDOUBLEV's avatar
LDOUBLEV committed
43
44
```
inference_lite_lib.android.armv8/
LDOUBLEV's avatar
LDOUBLEV committed
45
|-- cxx                                        C++ 预测库和头文件
LDOUBLEV's avatar
LDOUBLEV committed
46
47
48
49
50
51
52
53
|   |-- include                                C++ 头文件
|   |   |-- paddle_api.h
|   |   |-- paddle_image_preprocess.h
|   |   |-- paddle_lite_factory_helper.h
|   |   |-- paddle_place.h
|   |   |-- paddle_use_kernels.h
|   |   |-- paddle_use_ops.h
|   |   `-- paddle_use_passes.h
LDOUBLEV's avatar
LDOUBLEV committed
54
|   `-- lib                                           C++预测库
LDOUBLEV's avatar
LDOUBLEV committed
55
56
|       |-- libpaddle_api_light_bundled.a             C++静态库
|       `-- libpaddle_light_api_shared.so             C++动态库
LDOUBLEV's avatar
LDOUBLEV committed
57
|-- java                                     Java预测库
LDOUBLEV's avatar
LDOUBLEV committed
58
59
60
61
62
|   |-- jar
|   |   `-- PaddlePredictor.jar
|   |-- so
|   |   `-- libpaddle_lite_jni.so
|   `-- src
LDOUBLEV's avatar
LDOUBLEV committed
63
|-- demo                                     C++和Java示例代码
LDOUBLEV's avatar
LDOUBLEV committed
64
65
66
67
68
69
70
71
|   |-- cxx                                  C++  预测库demo
|   `-- java                                 Java 预测库demo
```

## 2 开始运行

### 2.1 模型优化

LDOUBLEV's avatar
LDOUBLEV committed
72
73
74
75
76
Paddle-Lite 提供了多种策略来自动优化原始的模型,其中包括量化、子图融合、混合调度、Kernel优选等方法,使用Paddle-lite的opt工具可以自动
对inference模型进行优化,优化后的模型更轻量,模型运行速度更快。

下述表格中提供了优化好的超轻量中文模型:

LDOUBLEV's avatar
LDOUBLEV committed
77
78
79
|模型简介|检测模型|识别模型|Paddle-Lite版本|
|-|-|-|-|
|超轻量级中文OCR opt优化模型|[下载地址](https://paddleocr.bj.bcebos.com/deploy/lite/ch_det_mv3_db_opt.nb)|[下载地址](https://paddleocr.bj.bcebos.com/deploy/lite/ch_rec_mv3_crnn_opt.nb)|2.6.1|
LDOUBLEV's avatar
LDOUBLEV committed
80

dyning's avatar
dyning committed
81
如果直接使用上述表格中的模型进行部署,可略过下述步骤,直接阅读 [2.2节](#2.2与手机联调)
LDOUBLEV's avatar
LDOUBLEV committed
82
83

如果要部署的模型不在上述表格中,则需要按照如下步骤获得优化后的模型。
LDOUBLEV's avatar
LDOUBLEV committed
84

LDOUBLEV's avatar
LDOUBLEV committed
85
模型优化需要Paddle-Lite的opt可执行文件,可以通过编译Paddle-Lite源码获得,编译步骤如下:
LDOUBLEV's avatar
LDOUBLEV committed
86
```
LDOUBLEV's avatar
LDOUBLEV committed
87
# 如果准备环境时已经clone了Paddle-Lite,则不用重新clone Paddle-Lite
LDOUBLEV's avatar
LDOUBLEV committed
88
89
git clone https://github.com/PaddlePaddle/Paddle-Lite.git
cd Paddle-Lite
LDOUBLEV's avatar
LDOUBLEV committed
90
git checkout 2.6.1
LDOUBLEV's avatar
LDOUBLEV committed
91
92
93
94
# 启动编译
./lite/tools/build.sh build_optimize_tool
```

LDOUBLEV's avatar
LDOUBLEV committed
95
编译完成后,opt文件位于`build.opt/lite/api/`下,可通过如下方式查看opt的运行选项和使用方式;
LDOUBLEV's avatar
LDOUBLEV committed
96
97
98
99
100
101
```
cd build.opt/lite/api/
./opt
```

|选项|说明|
LDOUBLEV's avatar
LDOUBLEV committed
102
|-|-|
LDOUBLEV's avatar
LDOUBLEV committed
103
104
105
106
107
108
109
110
|--model_dir|待优化的PaddlePaddle模型(非combined形式)的路径|
|--model_file|待优化的PaddlePaddle模型(combined形式)的网络结构文件路径|
|--param_file|待优化的PaddlePaddle模型(combined形式)的权重文件路径|
|--optimize_out_type|输出模型类型,目前支持两种类型:protobuf和naive_buffer,其中naive_buffer是一种更轻量级的序列化/反序列化实现。若您需要在mobile端执行模型预测,请将此选项设置为naive_buffer。默认为protobuf|
|--optimize_out|优化模型的输出路径|
|--valid_targets|指定模型可执行的backend,默认为arm。目前可支持x86、arm、opencl、npu、xpu,可以同时指定多个backend(以空格分隔),Model Optimize Tool将会自动选择最佳方式。如果需要支持华为NPU(Kirin 810/990 Soc搭载的达芬奇架构NPU),应当设置为npu, arm|
|--record_tailoring_info|当使用 根据模型裁剪库文件 功能时,则设置该选项为true,以记录优化后模型含有的kernel和OP信息,默认为false|

LDOUBLEV's avatar
LDOUBLEV committed
111
`--model_dir`适用于待优化的模型是非combined方式,PaddleOCR的inference模型是combined方式,即模型结构和模型参数使用单独一个文件存储。
LDOUBLEV's avatar
LDOUBLEV committed
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126

下面以PaddleOCR的超轻量中文模型为例,介绍使用编译好的opt文件完成inference模型到Paddle-Lite优化模型的转换。

```
# 下载PaddleOCR的超轻量文inference模型,并解压
wget  https://paddleocr.bj.bcebos.com/ch_models/ch_det_mv3_db_infer.tar && tar xf ch_det_mv3_db_infer.tar
wget  https://paddleocr.bj.bcebos.com/ch_models/ch_rec_mv3_crnn_infer.tar && tar xf ch_rec_mv3_crnn_infer.tar

# 转换检测模型
./opt --model_file=./ch_det_mv3_db/model --param_file=./ch_det_mv3_db/params --optimize_out_type=naive_buffer --optimize_out=./ch_det_mv3_db_opt --valid_targets=arm

# 转换识别模型
./opt --model_file=./ch_rec_mv3_crnn/model --param_file=./ch_rec_mv3_crnn/params --optimize_out_type=naive_buffer --optimize_out=./ch_rec_mv3_crnn_opt --valid_targets=arm
```

LDOUBLEV's avatar
LDOUBLEV committed
127
转换成功后,当前目录下会多出`ch_det_mv3_db_opt.nb`, `ch_rec_mv3_crnn_opt.nb`结尾的文件,即是转换成功的模型文件。
LDOUBLEV's avatar
LDOUBLEV committed
128

LDOUBLEV's avatar
LDOUBLEV committed
129
注意:使用paddle-lite部署时,需要使用opt工具优化后的模型。 opt 转换的输入模型是paddle保存的inference模型
LDOUBLEV's avatar
LDOUBLEV committed
130

dyning's avatar
dyning committed
131
<a name="2.2与手机联调"></a>
LDOUBLEV's avatar
LDOUBLEV committed
132
133
134
### 2.2 与手机联调

首先需要进行一些准备工作。
LDOUVLEV's avatar
LDOUVLEV committed
135
 1. 准备一台arm8的安卓手机,如果编译的预测库和opt文件是armv7,则需要arm7的手机,并修改Makefile中`ARM_ABI = arm7`
LDOUBLEV's avatar
LDOUBLEV committed
136
 2. 打开手机的USB调试选项,选择文件传输模式,连接电脑。
LDOUBLEV's avatar
LDOUBLEV committed
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
 3. 电脑上安装adb工具,用于调试。 adb安装方式如下:

    3.1. MAC电脑安装ADB:
    ```
    brew cask install android-platform-tools
    ```
    3.2. Linux安装ADB
    ```
    sudo apt update
    sudo apt install -y wget adb
    ```
    3.3. Window安装ADB

    win上安装需要去谷歌的安卓平台下载adb软件包进行安装:[链接](https://developer.android.com/studio)

    打开终端,手机连接电脑,在终端中输入
    ```
    adb devices
    ```
    如果有device输出,则表示安装成功。
    ```
       List of devices attached
       744be294    device
    ```
LDOUBLEV's avatar
LDOUBLEV committed
161

LDOUBLEV's avatar
LDOUBLEV committed
162
163
164
165
166
167
168
169
 4. 准备优化后的模型、预测库文件、测试图像和使用的字典文件。
 在预测库`inference_lite_lib.android.armv8/demo/cxx/`下新建一个`ocr/`文件夹,
 将PaddleOCR repo中`PaddleOCR/deploy/lite/` 下的除`readme.md`所有文件放在新建的ocr文件夹下。在`ocr`文件夹下新建一个`debug`文件夹,
 将C++预测库so文件复制到debug文件夹下。
  ```
 # 进入OCR demo的工作目录
 cd demo/cxx/ocr/
 # 将C++预测动态库so文件复制到debug文件夹中
LDOUBLEV's avatar
LDOUBLEV committed
170
 cp ../../../../cxx/lib/libpaddle_light_api_shared.so ./debug/
grasswolfs's avatar
grasswolfs committed
171
  ```
LDOUBLEV's avatar
LDOUBLEV committed
172
 准备测试图像,以`PaddleOCR/doc/imgs/11.jpg`为例,将测试的图像复制到`demo/cxx/ocr/debug/`文件夹下。
LDOUBLEV's avatar
LDOUBLEV committed
173
 准备字典文件,中文超轻量模型的字典文件是`PaddleOCR/ppocr/utils/ppocr_keys_v1.txt`,将其复制到`demo/cxx/ocr/debug/`文件夹下。
LDOUVLEV's avatar
LDOUVLEV committed
174

LDOUBLEV's avatar
LDOUBLEV committed
175
 执行完成后,ocr文件夹下将有如下文件格式:
LDOUBLEV's avatar
LDOUBLEV committed
176
177
178

```
demo/cxx/ocr/
LDOUVLEV's avatar
LDOUVLEV committed
179
|-- debug/  
LDOUBLEV's avatar
LDOUBLEV committed
180
181
|   |--ch_det_mv3_db_opt.nb             优化后的检测模型文件
|   |--ch_rec_mv3_crnn_opt.nb           优化后的识别模型文件
LDOUBLEV's avatar
LDOUBLEV committed
182
|   |--11.jpg                           待测试图像
LDOUBLEV's avatar
LDOUBLEV committed
183
184
|   |--ppocr_keys_v1.txt                字典文件
|   |--libpaddle_light_api_shared.so    C++预测库文件
LDOUBLEV's avatar
update  
LDOUBLEV committed
185
|   |--config.txt                       DB-CRNN超参数配置
LDOUBLEV's avatar
LDOUBLEV committed
186
187
188
189
190
|-- config.txt                  DB-CRNN超参数配置
|-- crnn_process.cc             识别模型CRNN的预处理和后处理文件
|-- crnn_process.h
|-- db_post_process.cc          检测模型DB的后处理文件
|-- db_post_process.h
LDOUBLEV's avatar
LDOUBLEV committed
191
|-- Makefile                    编译文件
LDOUBLEV's avatar
LDOUBLEV committed
192
|-- ocr_db_crnn.cc              C++预测源文件
LDOUBLEV's avatar
LDOUBLEV committed
193

LDOUBLEV's avatar
LDOUBLEV committed
194
195
```

LDOUBLEV's avatar
LDOUBLEV committed
196
197
198
 5. 启动调试

 上述步骤完成后就可以使用adb将文件push到手机上运行,步骤如下:
LDOUVLEV's avatar
LDOUVLEV committed
199

LDOUBLEV's avatar
LDOUBLEV committed
200
 ```
LDOUBLEV's avatar
LDOUBLEV committed
201
202
203
 # 执行编译,得到可执行文件ocr_db_crnn
 # ocr_db_crnn可执行文件的使用方式为:
 # ./ocr_db_crnn  检测模型文件  识别模型文件  测试图像路径
LDOUBLEV's avatar
LDOUBLEV committed
204
 make -j
LDOUBLEV's avatar
LDOUBLEV committed
205
206
 # 将编译的可执行文件移动到debug文件夹中
 mv ocr_db_crnn ./debug/
LDOUBLEV's avatar
LDOUBLEV committed
207
 # 将debug文件夹push到手机上
LDOUBLEV's avatar
LDOUBLEV committed
208
209
210
211
 adb push debug /data/local/tmp/
 adb shell
 cd /data/local/tmp/debug
 export LD_LIBRARY_PATH=/data/local/tmp/debug:$LD_LIBRARY_PATH
LDOUBLEV's avatar
LDOUBLEV committed
212
 ./ocr_db_crnn ch_det_mv3_db_opt.nb  ch_rec_mv3_crnn_opt.nb ./11.jpg  ppocr_keys_v1.txt
LDOUBLEV's avatar
LDOUBLEV committed
213
 ```
LDOUBLEV's avatar
LDOUBLEV committed
214

LDOUBLEV's avatar
LDOUBLEV committed
215
 如果对代码做了修改,则需要重新编译并push到手机上。
LDOUBLEV's avatar
LDOUBLEV committed
216
217

 运行效果如下:
dyning's avatar
dyning committed
218
219
220
221

<div align="center">
    <img src="../imgs/demo.png" width="600">
</div>