跳转至

安装及使用

PyPI

简介

PaddleOCR模型本身就是由PaddlePaddle框架训练而来的,PaddlePaddle框架原生支持在CPU和GPU上推理PaddleOCR相关模型。

rapidocr_paddle包是基于PaddlePaddle框架作为推理引擎的,支持CPU和GPU上推理,推荐GPU端使用。原因是ONNXRuntime和OpenVINO在GPU上支持较差。

CPU端还是以rapidocr_onnxruntimerapidocr_openvino为主。毕竟PaddlePaddle的CPU端还是比较重的。

值得说明的是,这个包和PaddleOCR相比,代码基本都是一样的,只不过这个库将里面核心推理代码抽了出来,更加精简而已。

安装

  1. 安装PaddlePaddle框架GPU版,并验证可行性,详细参见: 官方教程。验证是否安装成功代码如下:

    1
    2
    3
    4
    import paddle
    
    print(paddle.utils.run_check())
    # 如果出现PaddlePaddle is installed successfully!,说明您已成功安装。
    
  2. 安装rapidocr_paddle

    pip install rapidocr_paddle
    

使用

1
2
3
4
5
6
7
8
9
import cv2

from rapidocr_paddle import RapidOCR

# 注意这里的参数
engine = RapidOCR(det_use_cuda=True, cls_use_cuda=True, rec_use_cuda=True)

image_path = "tests/test_files/ch_en_num.jpg"
result, elapse_list = engine(image_path)

其他使用详情,同rapidocor_onnxruntime系列,参见: link

推理速度比较

相关测评代码,参见AI Studio,Fork可直接运行查看。不要只推理一张来测试推理速度,需要先推理一张作为预热,后续再看推理速度。

经过初步粗略估计,同一张图像,推理10次,耗时情况见下表:

推理库 平均耗时(s/img) 运行环境
rapidocr_onnxruntime 1.6505 CPU 2 Cores RAM 16GB
rapidocr_paddle[GPU] 0.0508 CPU 2 Cores RAM 16GB
GPU Tesla V100 16G

评论