readme.md 10.9 KB
Newer Older
dyning's avatar
dyning committed
1
# 端侧部署
LDOUBLEV's avatar
LDOUBLEV committed
2

grasswolfs's avatar
grasswolfs committed
3
4
5
本教程将介绍基于[Paddle Lite](https://github.com/PaddlePaddle/Paddle-Lite) 在移动端部署PaddleOCR超轻量中文检测、识别模型的详细步骤。

Paddle Lite是飞桨轻量化推理引擎,为手机、IOT端提供高效推理能力,并广泛整合跨平台硬件,为端侧部署及应用落地问题提供轻量化的部署方案。
LDOUBLEV's avatar
LDOUBLEV committed
6
7
8
9


## 1. 准备环境

LDOUBLEV's avatar
LDOUBLEV committed
10
### 运行准备
grasswolfs's avatar
grasswolfs committed
11
- 电脑(编译Paddle Lite)
LDOUBLEV's avatar
LDOUBLEV committed
12
13
- 安卓手机(armv7或armv8)

LDOUBLEV's avatar
LDOUBLEV committed
14
### 1.1 准备交叉编译环境
grasswolfs's avatar
grasswolfs committed
15
交叉编译环境用于编译 Paddle Lite 和 PaddleOCR 的C++ demo。
LDOUBLEV's avatar
LDOUBLEV committed
16
支持多种开发环境,不同开发环境的编译流程请参考对应文档。
grasswolfs's avatar
grasswolfs committed
17

LDOUBLEV's avatar
LDOUBLEV committed
18
19
20
21
22
1. [Docker](https://paddle-lite.readthedocs.io/zh/latest/user_guides/source_compile.html#docker)
2. [Linux](https://paddle-lite.readthedocs.io/zh/latest/user_guides/source_compile.html#android)
3. [MAC OS](https://paddle-lite.readthedocs.io/zh/latest/user_guides/source_compile.html#id13)
4. [Windows](https://paddle-lite.readthedocs.io/zh/latest/demo_guides/x86.html#windows)

LDOUBLEV's avatar
LDOUBLEV committed
23
### 1.2 准备预测库
LDOUBLEV's avatar
LDOUBLEV committed
24

LDOUBLEV's avatar
LDOUBLEV committed
25
预测库有两种获取方式:
LDOUBLEV's avatar
LDOUBLEV committed
26
27
28
29
30
31
32
33
- 1. 直接下载,预测库下载链接如下:
      |平台|预测库下载链接|
      |-|-|
      |Android|[arm7](https://paddlelite-data.bj.bcebos.com/Release/2.6.1/Android/inference_lite_lib.android.armv7.gcc.c++_static.with_extra.CV_ON.tar.gz) / [arm8](https://paddlelite-data.bj.bcebos.com/Release/2.6.1/Android/inference_lite_lib.android.armv8.gcc.c++_static.with_extra.CV_ON.tar.gz)|
      |IOS|[arm7](https://paddlelite-data.bj.bcebos.com/Release/2.6.1/iOS/inference_lite_lib.ios.armv7.with_extra.CV_ON.tar.gz) / [arm8](https://paddlelite-data.bj.bcebos.com/Release/2.6.1/iOS/inference_lite_lib.ios64.armv8.with_extra.CV_ON.tar.gz)|
      |x86(Linux)|[预测库](https://paddlelite-data.bj.bcebos.com/Release/2.6.1/X86/Linux/inference_lite_lib.x86.linux.tar.gz)|

      注:如果是从下Paddle-Lite[官网文档](https://paddle-lite.readthedocs.io/zh/latest/user_guides/release_lib.html#android-toolchain-gcc)下载的预测库,
grasswolfs's avatar
grasswolfs committed
34
      注意选择`with_extra=ON,with_cv=ON`的下载链接。
LDOUBLEV's avatar
LDOUBLEV committed
35
36

- 2. 编译Paddle-Lite得到预测库,Paddle-Lite的编译方式如下:
LDOUBLEV's avatar
LDOUBLEV committed
37
38
39
```
git clone https://github.com/PaddlePaddle/Paddle-Lite.git
cd Paddle-Lite
LDOUBLEV's avatar
LDOUBLEV committed
40
git checkout develop
LDOUBLEV's avatar
LDOUBLEV committed
41
42
43
./lite/tools/build_android.sh  --arch=armv8  --with_cv=ON --with_extra=ON
```

LDOUBLEV's avatar
LDOUBLEV committed
44
注意:编译Paddle-Lite获得预测库时,需要打开`--with_cv=ON --with_extra=ON`两个选项,`--arch`表示`arm`版本,这里指定为armv8,
LDOUBLEV's avatar
LDOUBLEV committed
45
46
47
更多编译命令
介绍请参考[链接](https://paddle-lite.readthedocs.io/zh/latest/user_guides/Compile/Android.html#id2)

LDOUBLEV's avatar
LDOUBLEV committed
48
直接下载预测库并解压后,可以得到`inference_lite_lib.android.armv8/`文件夹,通过编译Paddle-Lite得到的预测库位于
LDOUBLEV's avatar
LDOUBLEV committed
49
`Paddle-Lite/build.lite.android.armv8.gcc/inference_lite_lib.android.armv8/`文件夹下。
LDOUBLEV's avatar
LDOUBLEV committed
50
预测库的文件目录如下:
LDOUBLEV's avatar
LDOUBLEV committed
51
52
```
inference_lite_lib.android.armv8/
LDOUBLEV's avatar
LDOUBLEV committed
53
|-- cxx                                        C++ 预测库和头文件
LDOUBLEV's avatar
LDOUBLEV committed
54
55
56
57
58
59
60
61
|   |-- include                                C++ 头文件
|   |   |-- paddle_api.h
|   |   |-- paddle_image_preprocess.h
|   |   |-- paddle_lite_factory_helper.h
|   |   |-- paddle_place.h
|   |   |-- paddle_use_kernels.h
|   |   |-- paddle_use_ops.h
|   |   `-- paddle_use_passes.h
LDOUBLEV's avatar
LDOUBLEV committed
62
|   `-- lib                                           C++预测库
LDOUBLEV's avatar
LDOUBLEV committed
63
64
|       |-- libpaddle_api_light_bundled.a             C++静态库
|       `-- libpaddle_light_api_shared.so             C++动态库
LDOUBLEV's avatar
LDOUBLEV committed
65
|-- java                                     Java预测库
LDOUBLEV's avatar
LDOUBLEV committed
66
67
68
69
70
|   |-- jar
|   |   `-- PaddlePredictor.jar
|   |-- so
|   |   `-- libpaddle_lite_jni.so
|   `-- src
LDOUBLEV's avatar
LDOUBLEV committed
71
|-- demo                                     C++和Java示例代码
LDOUBLEV's avatar
LDOUBLEV committed
72
73
74
75
76
77
78
79
|   |-- cxx                                  C++  预测库demo
|   `-- java                                 Java 预测库demo
```

## 2 开始运行

### 2.1 模型优化

LDOUBLEV's avatar
LDOUBLEV committed
80
81
82
83
84
Paddle-Lite 提供了多种策略来自动优化原始的模型,其中包括量化、子图融合、混合调度、Kernel优选等方法,使用Paddle-lite的opt工具可以自动
对inference模型进行优化,优化后的模型更轻量,模型运行速度更快。

下述表格中提供了优化好的超轻量中文模型:

LDOUBLEV's avatar
LDOUBLEV committed
85
86
87
|模型简介|检测模型|识别模型|Paddle-Lite版本|
|-|-|-|-|
|超轻量级中文OCR opt优化模型|[下载地址](https://paddleocr.bj.bcebos.com/deploy/lite/ch_det_mv3_db_opt.nb)|[下载地址](https://paddleocr.bj.bcebos.com/deploy/lite/ch_rec_mv3_crnn_opt.nb)|2.6.1|
LDOUBLEV's avatar
LDOUBLEV committed
88

dyning's avatar
dyning committed
89
如果直接使用上述表格中的模型进行部署,可略过下述步骤,直接阅读 [2.2节](#2.2与手机联调)
LDOUBLEV's avatar
LDOUBLEV committed
90
91

如果要部署的模型不在上述表格中,则需要按照如下步骤获得优化后的模型。
LDOUBLEV's avatar
LDOUBLEV committed
92

LDOUBLEV's avatar
LDOUBLEV committed
93
模型优化需要Paddle-Lite的opt可执行文件,可以通过编译Paddle-Lite源码获得,编译步骤如下:
LDOUBLEV's avatar
LDOUBLEV committed
94
```
LDOUBLEV's avatar
LDOUBLEV committed
95
# 如果准备环境时已经clone了Paddle-Lite,则不用重新clone Paddle-Lite
LDOUBLEV's avatar
LDOUBLEV committed
96
97
git clone https://github.com/PaddlePaddle/Paddle-Lite.git
cd Paddle-Lite
LDOUBLEV's avatar
LDOUBLEV committed
98
git checkout develop
LDOUBLEV's avatar
LDOUBLEV committed
99
100
101
102
# 启动编译
./lite/tools/build.sh build_optimize_tool
```

LDOUBLEV's avatar
LDOUBLEV committed
103
编译完成后,opt文件位于`build.opt/lite/api/`下,可通过如下方式查看opt的运行选项和使用方式;
LDOUBLEV's avatar
LDOUBLEV committed
104
105
106
107
108
109
```
cd build.opt/lite/api/
./opt
```

|选项|说明|
LDOUBLEV's avatar
LDOUBLEV committed
110
|-|-|
LDOUBLEV's avatar
LDOUBLEV committed
111
112
113
114
115
116
117
118
|--model_dir|待优化的PaddlePaddle模型(非combined形式)的路径|
|--model_file|待优化的PaddlePaddle模型(combined形式)的网络结构文件路径|
|--param_file|待优化的PaddlePaddle模型(combined形式)的权重文件路径|
|--optimize_out_type|输出模型类型,目前支持两种类型:protobuf和naive_buffer,其中naive_buffer是一种更轻量级的序列化/反序列化实现。若您需要在mobile端执行模型预测,请将此选项设置为naive_buffer。默认为protobuf|
|--optimize_out|优化模型的输出路径|
|--valid_targets|指定模型可执行的backend,默认为arm。目前可支持x86、arm、opencl、npu、xpu,可以同时指定多个backend(以空格分隔),Model Optimize Tool将会自动选择最佳方式。如果需要支持华为NPU(Kirin 810/990 Soc搭载的达芬奇架构NPU),应当设置为npu, arm|
|--record_tailoring_info|当使用 根据模型裁剪库文件 功能时,则设置该选项为true,以记录优化后模型含有的kernel和OP信息,默认为false|

LDOUBLEV's avatar
LDOUBLEV committed
119
`--model_dir`适用于待优化的模型是非combined方式,PaddleOCR的inference模型是combined方式,即模型结构和模型参数使用单独一个文件存储。
LDOUBLEV's avatar
LDOUBLEV committed
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134

下面以PaddleOCR的超轻量中文模型为例,介绍使用编译好的opt文件完成inference模型到Paddle-Lite优化模型的转换。

```
# 下载PaddleOCR的超轻量文inference模型,并解压
wget  https://paddleocr.bj.bcebos.com/ch_models/ch_det_mv3_db_infer.tar && tar xf ch_det_mv3_db_infer.tar
wget  https://paddleocr.bj.bcebos.com/ch_models/ch_rec_mv3_crnn_infer.tar && tar xf ch_rec_mv3_crnn_infer.tar

# 转换检测模型
./opt --model_file=./ch_det_mv3_db/model --param_file=./ch_det_mv3_db/params --optimize_out_type=naive_buffer --optimize_out=./ch_det_mv3_db_opt --valid_targets=arm

# 转换识别模型
./opt --model_file=./ch_rec_mv3_crnn/model --param_file=./ch_rec_mv3_crnn/params --optimize_out_type=naive_buffer --optimize_out=./ch_rec_mv3_crnn_opt --valid_targets=arm
```

LDOUBLEV's avatar
LDOUBLEV committed
135
转换成功后,当前目录下会多出`ch_det_mv3_db_opt.nb`, `ch_rec_mv3_crnn_opt.nb`结尾的文件,即是转换成功的模型文件。
LDOUBLEV's avatar
LDOUBLEV committed
136

LDOUBLEV's avatar
LDOUBLEV committed
137
注意:使用paddle-lite部署时,需要使用opt工具优化后的模型。 opt 转换的输入模型是paddle保存的inference模型
LDOUBLEV's avatar
LDOUBLEV committed
138

dyning's avatar
dyning committed
139
<a name="2.2与手机联调"></a>
LDOUBLEV's avatar
LDOUBLEV committed
140
141
142
### 2.2 与手机联调

首先需要进行一些准备工作。
LDOUVLEV's avatar
LDOUVLEV committed
143
 1. 准备一台arm8的安卓手机,如果编译的预测库和opt文件是armv7,则需要arm7的手机,并修改Makefile中`ARM_ABI = arm7`
LDOUBLEV's avatar
LDOUBLEV committed
144
 2. 打开手机的USB调试选项,选择文件传输模式,连接电脑。
LDOUBLEV's avatar
LDOUBLEV committed
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
 3. 电脑上安装adb工具,用于调试。 adb安装方式如下:

    3.1. MAC电脑安装ADB:
    ```
    brew cask install android-platform-tools
    ```
    3.2. Linux安装ADB
    ```
    sudo apt update
    sudo apt install -y wget adb
    ```
    3.3. Window安装ADB

    win上安装需要去谷歌的安卓平台下载adb软件包进行安装:[链接](https://developer.android.com/studio)

    打开终端,手机连接电脑,在终端中输入
    ```
    adb devices
    ```
    如果有device输出,则表示安装成功。
    ```
       List of devices attached
       744be294    device
    ```
LDOUBLEV's avatar
LDOUBLEV committed
169

LDOUBLEV's avatar
LDOUBLEV committed
170
 4. 准备优化后的模型、预测库文件、测试图像和使用的字典文件。
171
172
173
174
175
176
 ```
 git clone https://github.com/PaddlePaddle/PaddleOCR.git
 cd PaddleOCR/deploy/lite/
 # 运行prepare.sh,准备预测库文件、测试图像和使用的字典文件,并放置在预测库中的demo/cxx/ocr文件夹下
 sh prepare.sh /{lite prediction library path}/inference_lite_lib.android.armv8

LDOUBLEV's avatar
LDOUBLEV committed
177
 # 进入OCR demo的工作目录
178
 cd /{lite prediction library path}/inference_lite_lib.android.armv8/
LDOUBLEV's avatar
LDOUBLEV committed
179
180
 cd demo/cxx/ocr/
 # 将C++预测动态库so文件复制到debug文件夹中
LDOUBLEV's avatar
LDOUBLEV committed
181
 cp ../../../cxx/lib/libpaddle_light_api_shared.so ./debug/
182
183
 ```

LDOUBLEV's avatar
LDOUBLEV committed
184
 准备测试图像,以`PaddleOCR/doc/imgs/11.jpg`为例,将测试的图像复制到`demo/cxx/ocr/debug/`文件夹下。
185
 准备lite opt工具优化后的模型文件,`ch_det_mv3_db_opt.nb,ch_rec_mv3_crnn_opt.nb`,放置在`demo/cxx/ocr/debug/`文件夹下。
LDOUVLEV's avatar
LDOUVLEV committed
186

LDOUBLEV's avatar
LDOUBLEV committed
187
 执行完成后,ocr文件夹下将有如下文件格式:
LDOUBLEV's avatar
LDOUBLEV committed
188
189
190

```
demo/cxx/ocr/
LDOUVLEV's avatar
LDOUVLEV committed
191
|-- debug/  
LDOUBLEV's avatar
LDOUBLEV committed
192
193
|   |--ch_det_mv3_db_opt.nb             优化后的检测模型文件
|   |--ch_rec_mv3_crnn_opt.nb           优化后的识别模型文件
LDOUBLEV's avatar
LDOUBLEV committed
194
|   |--11.jpg                           待测试图像
LDOUBLEV's avatar
LDOUBLEV committed
195
196
|   |--ppocr_keys_v1.txt                字典文件
|   |--libpaddle_light_api_shared.so    C++预测库文件
LDOUBLEV's avatar
update  
LDOUBLEV committed
197
|   |--config.txt                       DB-CRNN超参数配置
LDOUBLEV's avatar
LDOUBLEV committed
198
199
200
201
202
|-- config.txt                  DB-CRNN超参数配置
|-- crnn_process.cc             识别模型CRNN的预处理和后处理文件
|-- crnn_process.h
|-- db_post_process.cc          检测模型DB的后处理文件
|-- db_post_process.h
LDOUBLEV's avatar
LDOUBLEV committed
203
|-- Makefile                    编译文件
LDOUBLEV's avatar
LDOUBLEV committed
204
|-- ocr_db_crnn.cc              C++预测源文件
LDOUBLEV's avatar
LDOUBLEV committed
205

LDOUBLEV's avatar
LDOUBLEV committed
206
207
```

LDOUBLEV's avatar
LDOUBLEV committed
208
209
210
 5. 启动调试

 上述步骤完成后就可以使用adb将文件push到手机上运行,步骤如下:
LDOUVLEV's avatar
LDOUVLEV committed
211

LDOUBLEV's avatar
LDOUBLEV committed
212
 ```
LDOUBLEV's avatar
LDOUBLEV committed
213
214
215
 # 执行编译,得到可执行文件ocr_db_crnn
 # ocr_db_crnn可执行文件的使用方式为:
 # ./ocr_db_crnn  检测模型文件  识别模型文件  测试图像路径
LDOUBLEV's avatar
LDOUBLEV committed
216
 make -j
LDOUBLEV's avatar
LDOUBLEV committed
217
218
 # 将编译的可执行文件移动到debug文件夹中
 mv ocr_db_crnn ./debug/
LDOUBLEV's avatar
LDOUBLEV committed
219
 # 将debug文件夹push到手机上
LDOUBLEV's avatar
LDOUBLEV committed
220
221
222
223
 adb push debug /data/local/tmp/
 adb shell
 cd /data/local/tmp/debug
 export LD_LIBRARY_PATH=/data/local/tmp/debug:$LD_LIBRARY_PATH
LDOUBLEV's avatar
LDOUBLEV committed
224
 ./ocr_db_crnn ch_det_mv3_db_opt.nb  ch_rec_mv3_crnn_opt.nb ./11.jpg  ppocr_keys_v1.txt
LDOUBLEV's avatar
LDOUBLEV committed
225
 ```
LDOUBLEV's avatar
LDOUBLEV committed
226

LDOUBLEV's avatar
LDOUBLEV committed
227
 如果对代码做了修改,则需要重新编译并push到手机上。
LDOUBLEV's avatar
LDOUBLEV committed
228
229

 运行效果如下:
dyning's avatar
dyning committed
230
231
232
233

<div align="center">
    <img src="../imgs/demo.png" width="600">
</div>