当前位置: 首页
AI
【官方】十分钟掌握PaddleOCR文字检测使用

【官方】十分钟掌握PaddleOCR文字检测使用

热心网友 时间:2025-07-20
转载
PaddleOCR是百度开源的超轻量级OCR模型库,提供了数十种文本检测、识别模型,旨在打造一套丰富、领先、实用的文字检测、识别模型/工具库,助力使用者训练出更好的模型,并应用落地。

【官方】十分钟掌握paddleocr文字检测使用 - 游乐网

PP-OCRv3策略简要介绍

PaddleOCR是百度开源的超轻量级OCR模型库,提供了数十种文本检测、识别模型,旨在打造一套丰富、领先、实用的文字检测、识别模型/工具库,助力使用者训练出更好的模型,并应用落地。同时PaddleOCR也几经更新, 在2024.5.9 发布最新版本PaddleOCR release/2.5 :

免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈

发布PP-OCRv3,速度可比情况下,中文场景效果相比于PP-OCRv2再提升5%,英文场景提升11%,80语种多语言模型平均识别准确率提升5%以上;发布半自动标注工具PPOCRLabelv2:新增表格文字图像、图像关键信息抽取任务和不规则文字图像的标注功能;发布OCR产业落地工具集:打通22种训练部署软硬件环境与方式,覆盖企业90%的训练部署环境需求;发布交互式OCR开源电子书《动手学OCR》,覆盖OCR全栈技术的前沿理论与代码实践,并配套教学视频。

本教程主要介绍PP-OCRv3的文本检测的CML蒸馏训练方式,包含模型训练、评估、预测等内容。

1. PP-OCRv3检测快速使用

PP-OCRv3在PP-OCRv2的基础上进一步升级。 PP-OCRv3采用PP-OCRv2的CML蒸馏策略,在蒸馏的student模型、teacher模型精度提升、CML蒸馏策略上分别做了优化。 PP-OCRv3模型优化策略介绍参考:https://github.com/PaddlePaddle/PaddleOCR/blob/release/2.5/doc/doc_ch/PP-OCRv3_introduction.md

1.1. 运行环境准备

首先,克隆GitHub上PaddleOCR的代码库,并安装相应的依赖库:

In [ ]
#如果代码克隆较慢,请使用gitee上的PaddleOCR代码:https://gitee.com/paddlepaddle/PaddleOCR.git#!git clone  https://github.com/paddlepaddle/PaddleOCR.git!git clone  https://gitee.com/paddlepaddle/PaddleOCR.git
登录后复制In [ ]
# 切换到PaddleOCR目录%cd ~/PaddleOCR# 切换到PaddleOCR dygraph分支!git checkout dygraph# 安装依赖!pip install -r requirements.txt -i https://mirror.baidu.com/pypi/simple
登录后复制

1.2. PP-OCRv3检测模型介绍

PP-OCRv3采用CML的蒸馏策略,训练配置文件为configs/det/ch_PP-OCRv3/ch_PP-OCRv3_det_cml.yml,CML蒸馏训练策略包含三个模型,分别是蒸馏教师模型以及两个蒸馏学生模型。

网络结构配置如下:

In [ ]
Architecture:  name: DistillationModel  algorithm: Distillation  model_type: det  Models:                       Student:                 # CML蒸馏的Student模型配置      model_type: det      algorithm: DB      Transform: null      Backbone:        name: MobileNetV3    # Student模型backbone使用mobilev3        scale: 0.5        model_name: large        disable_se: true      Neck:        name: RSEFPN         # Student模型neck部分使用PaddleOCR中的RSEFPN        out_channels: 96        shortcut: True      Head:        name: DBHead        k: 50    Student2:                # Student2模型的配置同Student      model_type: det      algorithm: DB      Transform: null      Backbone:        name: MobileNetV3        scale: 0.5        model_name: large        disable_se: true      Neck:        name: RSEFPN        out_channels: 96        shortcut: True      Head:        name: DBHead        k: 50    Teacher:                 # Teacher模型配置      freeze_params: true      return_all_feats: false      model_type: det      algorithm: DB      Backbone:        name: ResNet         # Teacher使用resnet50作为backbone         in_channels: 3        layers: 50               Neck:        name: LKPAN          # Teacher模型使用PaddleOCR中的LKPAN作为neck网络        out_channels: 256      Head:        name: DBHead        kernel_list: [7,2,2]          k: 50
登录后复制

注:PP-OCRv3模型分别在网络结构做了以下优化

Student模型使用RSEPAN提升模型召回和精度;Teacher模型使用LKPAN提升模型精度和召回;

详细策略介绍参考链接: https://github.com/PaddlePaddle/PaddleOCR/blob/release/2.5/doc/doc_ch/PP-OCRv3_introduction.md

2. 训练文字检测模型

2.1. 准备训练数据

本教程以HierText数据集为例,介绍PP-OCRv3检测模型的蒸馏训练方式。 HierText是第一个具有自然场景和文档中文本分层注释的数据集。该数据集包含从 Open Images 数据集中选择的 11639 张图像,提供高质量的单词 (~1.2M)、行和段落级别的注释。HierText数据集下载地址: https://github.com/google-research-datasets/hiertext

值得注意的是该数据集的标注格式与ppocrlabel格式不一样,我们需要对其数据标签格式进行相应的转换。

您可以从AI Studio中直接下载标签格式转换后的HierText数据集: https://aistudio.baidu.com/aistudio/datasetdetail/143700

本教程中已经下载好了HierText数据集,并存放在~/data/data143700/文件夹中。运行如下指令,完成数据集解压:

In [3]
# 准备数据集!cd ~/data/data143700/ && tar xf hiertext1.tar && mv hiertext1 hiertext && mkdir ~/PaddleOCR/train_data/ && mv hiertext ~/PaddleOCR/train_data/
登录后复制

运行上述命令后,在PaddleOCR/train_data/ 目录下包含以下文件:

~/train_data/hiertext  └─ train/     HierText训练集数据  └─ validation/     HierText验证集数据  └─ label_hiertext_train.txt  HierText训练集的行标注  └─ label_hiertext_val.txt    HierText验证集的行标注
登录后复制

其中,paddleocr支持的标注文件格式为:

" 图像文件的路径               json.dumps编码的图像标注信息"hiertext/train/1b1b8bd73eb47995.webp   [{"points": [[758, 283], [971, 267], [972, 279], [758, 294]], "transcription": "We are not programming in 1969 anymore"}, ...]
登录后复制

其中图像标注信息中包含两种参数:

pointspoints表示文本框的四个点的绝对坐标(x, y),从左上角的点开始顺时针排列。transcriptiontranscription表示当前文本框的文字内容,在文本检测任务中无需使用这个信息。

如果您想在其他数据集上训练PaddleOCR,可以按照上述形式构建标注文件。

之后您需要修改训练配置文件ch_PP-OCRv3_det_cml.yml中的训练数据为HierText数据。

修改训练数据配置:In [ ]
Train:  dataset:    name: SimpleDataSet    data_dir: ./train_data/icdar2015/text_localization/    label_file_list:      - ./train_data/icdar2015/text_localization/train_icdar2015_label.txt
登录后复制

修改为:

In [ ]
Train:  dataset:    name: SimpleDataSet    data_dir: ./train_data/    label_file_list:      - ./train_data/hiertext/label_hiertext_train.txt
登录后复制修改验证数据配置:In [ ]
Eval:  dataset:    name: SimpleDataSet    data_dir: ./train_data/icdar2015/text_localization/    label_file_list:      - ./train_data/icdar2015/text_localization/test_icdar2015_label.txt
登录后复制

修改为:

In [ ]
Eval:  dataset:    name: SimpleDataSet    data_dir: ./train_data/    label_file_list:      - ./train_data/hiertext/label_hiertext_val.txt
登录后复制

2.2. 启动训练

下载PP-OCRv3的蒸馏预训练模型并进行训练的方式如下

In [ ]
#下载预训练模型到~/PaddleOCR/pre_train文件夹下!mkdir ~/PaddleOCR/pre_train%cd ~/PaddleOCR/pre_train!wget https://paddleocr.bj.bcebos.com/PP-OCRv3/chinese/ch_PP-OCRv3_det_distill_train.tar!tar xf ch_PP-OCRv3_det_distill_train.tar
登录后复制In [ ]
# 启动训练,训练模型默认保存在output目录下,加载PP-OCRv3检测预训练模型%cd ~/PaddleOCR!python3 tools/train.py -c configs/det/ch_PP-OCRv3/ch_PP-OCRv3_det_cml.yml -o Global.save_model_dir=./output/ Global.pretrained_model=./pre_train/ch_PP-OCRv3_det_distill_train/best_accuracy
登录后复制

如果要使用多GPU分布式训练,请使用如下命令:

In [ ]
# 启动训练,训练模型默认保存在output目录下,--gpus '0,1,2,3'表示使用0,1,2,3号GPU训练!python3 -m paddle.distributed.launch --log_dir=./debug/ --gpus '0,1,2,3' tools/train.py -c configs/det/ch_PP-OCRv3/ch_PP-OCRv3_det_cml.yml -o Global.save_model_dir=./output/ Global.pretrained_model=./pre_train/ch_PP-OCRv3_det_distill_train/best_accuracy
登录后复制

2.3. 模型评估

训练过程中保存的模型在output目录下,包含以下文件:

In [ ]
best_accuracy.states    best_accuracy.pdparams  # 默认保存最优精度的模型参数best_accuracy.pdopt     # 默认保存最优精度的优化器相关参数latest.states    latest.pdparams  # 默认保存的最新模型参数latest.pdopt     # 默认保存的最新模型的优化器相关参数
登录后复制

其中,best_accuracy是保存的最优模型,可以直接使用该模型评估

In [ ]
# 进行模型评估%cd ~/PaddleOCR/!python3 tools/eval.py -c configs/det/ch_PP-OCRv3/ch_PP-OCRv3_det_cml.yml -o Global.checkpoints=./output/best_accuracy
登录后复制

2.4. 基于训练模型的预测

使用上述步骤训练好的模型,测试文本检测效果。我们在 ./doc/imgs_en/文件夹下准备了一些测试图像,您也可以上传自己的图像测试我们的OCR检测模型。

In [ ]
# 进行检测%cd ~/PaddleOCR/!python3 tools/infer_det.py -c configs/det/ch_PP-OCRv3/ch_PP-OCRv3_det_cml.yml -o Global.checkpoints=./output/best_accuracy Global.infer_img=./doc/imgs_en/img_12.webp
登录后复制

预测可视化的图像默认保存在./checkpoints/det_db/目录下,运行下述代码进行可视化

In [7]
import matplotlib.pyplot as pltfrom PIL import Image## 显示原图,读取名称为12.webp的测试图像img_path= "./checkpoints/det_db/det_results_Student/img_12.webp"img = Image.open(img_path)plt.figure("test_img", figsize=(10,10))plt.imshow(img)plt.show()
登录后复制
登录后复制

2.5. 基于预测引擎预测

模型训练好后,可以将模型固化为文件,以便于部署

运行如下指令,可将训练好的模型导出为预测部署模型

In [ ]
# 导出为预测部署模型%cd ~/PaddleOCR/!python3 tools/export_model.py -c configs/det/ch_PP-OCRv3/ch_PP-OCRv3_det_cml.yml -o Global.checkpoints=./output/best_accuracy Global.save_inference_dir=./inference/
登录后复制

运行完后,导出的预测部署模型位于inference目录下,组织结构为:

inference├── Student      # 保存的精度最高的Student模型│   ├── inference.pdiparams│   ├── inference.pdiparams.info│   └── inference.pdmodel├── Student2    # CML训练方法中的第二个student模型,精度低于Student│   ├── inference.pdiparams│   ├── inference.pdiparams.info│   └── inference.pdmodel└── Teacher     # 蒸馏教师模型    ├── inference.pdiparams    ├── inference.pdiparams.info    └── inference.pdmodel
登录后复制

Student下的模型为导出的精度最高的模型。下面以Student的inference模型为例,介绍inference模型的使用方法。

注:关于inference模型的更多使用示例,参考: https://github.com/PaddlePaddle/PaddleOCR/blob/release/2.5/doc/doc_ch/inference_ppocr.md

In [ ]
# 使用inference模型进行文字检测%cd ~/PaddleOCR/!python3 tools/infer/predict_det.py --image_dir=./doc/imgs_en/img_10.webp --det_model_dir=./inference/Student/
登录后复制In [10]
## 显示轻量级模型识别结果## 可视化det_res_img_10.webp的文本检测效果import matplotlib.pyplot as pltfrom PIL import Imageimg_path= "./inference_results/det_res_img_10.webp"img = Image.open(img_path)plt.figure("results_img", figsize=(20,20))plt.imshow(img)plt.show()
登录后复制
登录后复制
来源:https://www.php.cn/faq/1410274.html

游乐网为非赢利性网站,所展示的游戏/软件/文章内容均来自于互联网或第三方用户上传分享,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系youleyoucom@outlook.com。

同类文章
更多
逼AI当山顶洞人!Claude防话痨插件爆火,网友:受够了AI废话

逼AI当山顶洞人!Claude防话痨插件爆火,网友:受够了AI废话

新智元报道编辑:元宇【新智元导读】一个让AI像原始人一样说话的插件,在HN上一夜爆火,冲破2w星。它的核心只是一条简单粗暴的prompt:删掉冠词、客套和一切废话,号称能省下75%的输出token。

时间:2026-04-07 14:55
季度利润翻 8 倍,最赚钱的「卖铲人」财报背后,内存涨价狂潮如何收场?

季度利润翻 8 倍,最赚钱的「卖铲人」财报背后,内存涨价狂潮如何收场?

AI 时代最赚钱的公司,可能从来不是做 AI 的那个。作者|张勇毅编辑|靖宇淘金热里最稳赚的人,从来不是淘金的,是卖铲子的。这句老话在 2026 年的科技行业又应验了一次。只不过这次卖铲子的不是英伟

时间:2026-04-07 14:49
Claude Code Harness+龙虾科研团来了!金字塔分层架构+多智能体

Claude Code Harness+龙虾科研团来了!金字塔分层架构+多智能体

Claw AI Lab团队量子位 | 公众号 QbitAI你还在一个人做科研吗?科研最难的,从来不是问题本身,而是一个想法从文献到实验再到写作,只能靠自己一点点往前推。一个人方向偏了没人提醒,遇到歧

时间:2026-04-07 14:43
让离线强化学习从「局部描摹」变「全局布局」丨ICLR'26

让离线强化学习从「局部描摹」变「全局布局」丨ICLR'26

面对复杂连续任务的长程规划,现有的生成式离线强化学习方法往往会暴露短板。它们生成的轨迹经常陷入局部合理但全局偏航的窘境。它们太关注眼前的每一步,却忘了最终的目的地。针对这一痛点,厦门大学和香港科技大

时间:2026-04-07 14:37
美国犹他州启动新试点项目:AI为患者开具精神类药物处方

美国犹他州启动新试点项目:AI为患者开具精神类药物处方

IT之家 4 月 5 日消息,据外媒 PC Mag 当地时间 4 月 4 日报道,美国医疗机构 Legion Health 在犹他州获得监管批准,启动一项试点项目,允许 AI 系统为患者开具精神类药

时间:2026-04-07 14:30
热门专题
更多
刀塔传奇破解版无限钻石下载大全 刀塔传奇破解版无限钻石下载大全
洛克王国正式正版手游下载安装大全 洛克王国正式正版手游下载安装大全
思美人手游下载专区 思美人手游下载专区
好玩的阿拉德之怒游戏下载合集 好玩的阿拉德之怒游戏下载合集
不思议迷宫手游下载合集 不思议迷宫手游下载合集
百宝袋汉化组游戏最新合集 百宝袋汉化组游戏最新合集
jsk游戏合集30款游戏大全 jsk游戏合集30款游戏大全
宾果消消消原版下载大全 宾果消消消原版下载大全
  • 日榜
  • 周榜
  • 月榜
热门教程
更多
  • 游戏攻略
  • 安卓教程
  • 苹果教程
  • 电脑教程