diff --git a/doc/doc_ch/algorithm_rec_svtrv2.md b/doc/doc_ch/algorithm_rec_svtrv2.md deleted file mode 100644 index 1391cc790c..0000000000 --- a/doc/doc_ch/algorithm_rec_svtrv2.md +++ /dev/null @@ -1,150 +0,0 @@ -# 场景文本识别算法-SVTRv2 - -- [1. 算法简介](#1) -- [2. 环境配置](#2) -- [3. 模型训练、评估、预测](#3) - - [3.1 训练](#3-1) - - [3.2 评估](#3-2) - - [3.3 预测](#3-3) -- [4. 推理部署](#4) - - [4.1 Python推理](#4-1) - - [4.2 C++推理](#4-2) - - [4.3 Serving服务化部署](#4-3) - - [4.4 更多推理部署](#4-4) -- [5. FAQ](#5) - -<a name="1"></a> -## 1. 算法简介 - -### SVTRv2算法简介 - -<a name="1"></a> -🔥 该算法由来自复旦大学视觉与学习实验室([FVL](https://fvl.fudan.edu.cn))的[OpenOCR](https://github.com/Topdu/OpenOCR)团队研发,其在[PaddleOCR算法模型挑战赛 - 赛题一:OCR端到端识别任务](https://aistudio.baidu.com/competition/detail/1131/0/introduction)中荣获一等奖,B榜端到端识别精度相比PP-OCRv4提升2.5%,推理速度持平。主要思路:1、检测和识别模型的Backbone升级为RepSVTR;2、识别教师模型升级为SVTRv2,可识别长文本。 - -|模型|配置文件|端到端|下载链接| -| --- | --- | --- | --- | -|PP-OCRv4| |A榜 62.77% <br> B榜 62.51%| [Model List](../../doc/doc_ch/models_list.md) | -|SVTRv2(Rec Sever)|[configs/rec/SVTRv2/rec_svtrv2_ch.yml](../../configs/rec/SVTRv2/rec_svtrv2_ch.yml)|A榜 68.81% (使用PP-OCRv4检测模型)| [训练模型](https://paddleocr.bj.bcebos.com/openatom/openatom_rec_svtrv2_ch_train.tar) / [推理模型](https://paddleocr.bj.bcebos.com/openatom/openatom_rec_svtrv2_ch_infer.tar) | -|RepSVTR(Mobile)|[识别](../../configs/rec/SVTRv2/rec_repsvtr_ch.yml) <br> [识别蒸馏](../../configs/rec/SVTRv2/rec_svtrv2_ch_distillation.yml) <br> [检测](../../configs/det/det_repsvtr_db.yml)|B榜 65.07%| 识别: [训练模型](https://paddleocr.bj.bcebos.com/openatom/openatom_rec_repsvtr_ch_train.tar) / [推理模型](https://paddleocr.bj.bcebos.com/openatom/openatom_rec_repsvtr_ch_infer.tar) <br> 识别蒸馏: [训练模型](https://paddleocr.bj.bcebos.com/openatom/openatom_rec_svtrv2_distill_ch_train.tar) / [推理模型](https://paddleocr.bj.bcebos.com/openatom/openatom_rec_svtrv2_distill_ch_infer.tar) <br> 检测: [训练模型](https://paddleocr.bj.bcebos.com/openatom/openatom_det_repsvtr_ch_train.tar) / [推理模型](https://paddleocr.bj.bcebos.com/openatom/openatom_det_repsvtr_ch_infer.tar) | - -🚀 快速使用:参考PP-OCR推理[说明文档](../../doc/doc_ch/inference_ppocr.md),将检测和识别模型替换为上表中对应的RepSVTR或SVTRv2推理模型即可使用。 - -<a name="2"></a> -## 2. 环境配置 -请先参考[《运行环境准备》](./environment.md)配置PaddleOCR运行环境,参考[《项目克隆》](./clone.md)克隆项目代码。 - - -<a name="3"></a> -## 3. 模型训练、评估、预测 - -<a name="3-1"></a> -### 3.1 模型训练 - - -训练命令: -```shell -#单卡训练(训练周期长,不建议) -python3 tools/train.py -c configs/rec/SVTRv2/rec_repsvtr_gtc.yml - -#多卡训练,通过--gpus参数指定卡号 -# Rec 学生模型 -python -m paddle.distributed.launch --gpus '0,1,2,3,4,5,6,7' tools/train.py -c configs/rec/SVTRv2/rec_repsvtr_gtc.yml -# Rec 教师模型 -python -m paddle.distributed.launch --gpus '0,1,2,3,4,5,6,7' tools/train.py -c configs/rec/SVTRv2/rec_svtrv2_gtc.yml -# Rec 蒸馏训练 -python -m paddle.distributed.launch --gpus '0,1,2,3,4,5,6,7' tools/train.py -c configs/rec/SVTRv2/rec_svtrv2_gtc_distill.yml -``` - -<a name="3-2"></a> -### 3.2 评估 - - -```shell -# 注意将pretrained_model的路径设置为本地路径。 -python3 -m paddle.distributed.launch --gpus '0' tools/eval.py -c configs/rec/SVTRv2/rec_repsvtr_gtc.yml -o Global.pretrained_model=output/rec_repsvtr_gtc/best_accuracy -``` - -<a name="3-3"></a> -### 3.3 预测 - -使用如下命令进行单张图片预测: -```shell -# 注意将pretrained_model的路径设置为本地路径。 -python3 tools/infer_rec.py -c tools/eval.py -c configs/rec/SVTRv2/rec_repsvtr_gtc.yml -o Global.pretrained_model=output/rec_repsvtr_gtc/best_accuracy Global.infer_img='./doc/imgs_words_en/word_10.png' -# 预测文件夹下所有图像时,可修改infer_img为文件夹,如 Global.infer_img='./doc/imgs_words_en/'。 -``` - - -<a name="4"></a> -## 4. 推理部署 - -<a name="4-1"></a> -### 4.1 Python推理 -首先将训练得到best模型,转换成inference model,以RepSVTR为例,可以使用如下命令进行转换: - -```shell -# 注意将pretrained_model的路径设置为本地路径。 -python3 tools/export_model.py -c configs/rec/SVTRv2/rec_repsvtr_gtc.yml -o Global.pretrained_model=output/rec_repsvtr_gtc/best_accuracy Global.save_inference_dir=./inference/rec_repsvtr_infer -``` - -**注意:** -- 如果您是在自己的数据集上训练的模型,并且调整了字典文件,请注意修改配置文件中的`character_dict_path`是否为所正确的字典文件。 - -转换成功后,在目录下有三个文件: -``` -./inference/rec_repsvtr_infer/ - ├── inference.pdiparams # 识别inference模型的参数文件 - ├── inference.pdiparams.info # 识别inference模型的参数信息,可忽略 - └── inference.pdmodel # 识别inference模型的program文件 -``` - - -执行如下命令进行模型推理: - -```shell -python3 tools/infer/predict_rec.py --image_dir='./doc/imgs_words_en/word_10.png' --rec_model_dir='./inference/rec_repsvtr_infer/' -# 预测文件夹下所有图像时,可修改image_dir为文件夹,如 --image_dir='./doc/imgs_words_en/'。 -``` -![](../imgs_words_en/word_10.png) - -执行命令后,上面图像的预测结果(识别的文本和得分)会打印到屏幕上,示例如下: -结果如下: -```shell -Predicts of ./doc/imgs_words_en/word_10.png:('pain', 0.9999998807907104) -``` - -**注意**: - -- 如果您调整了训练时的输入分辨率,需要通过参数`rec_image_shape`设置为您需要的识别图像形状。 -- 在推理时需要设置参数`rec_char_dict_path`指定字典,如果您修改了字典,请修改该参数为您的字典文件。 -- 如果您修改了预处理方法,需修改`tools/infer/predict_rec.py`中SVTR的预处理为您的预处理方法。 - -<a name="4-2"></a> -### 4.2 C++推理部署 - -准备好推理模型后,参考[cpp infer](../../deploy/cpp_infer/)教程进行操作即可。 - -<a name="4-3"></a> -### 4.3 Serving服务化部署 - -暂不支持 - -<a name="4-4"></a> -### 4.4 更多推理部署 - -- Paddle2ONNX推理:准备好推理模型后,参考[paddle2onnx](../../deploy/paddle2onnx/)教程操作。 - -<a name="5"></a> -## 5. FAQ - -## 引用 - -```bibtex -@article{Du2022SVTR, - title = {SVTR: Scene Text Recognition with a Single Visual Model}, - author = {Du, Yongkun and Chen, Zhineng and Jia, Caiyan and Yin, Xiaoting and Zheng, Tianlun and Li, Chenxia and Du, Yuning and Jiang, Yu-Gang}, - booktitle = {IJCAI}, - year = {2022}, - url = {https://arxiv.org/abs/2205.00159} -} -``` diff --git a/doc/doc_ch/algorithm_table_slanet.md b/doc/doc_ch/algorithm_table_slanet.md deleted file mode 100644 index ea2f770914..0000000000 --- a/doc/doc_ch/algorithm_table_slanet.md +++ /dev/null @@ -1,111 +0,0 @@ -# 表格识别算法-SLANet-LCNetV2 - -- [1. 算法简介](#1-算法简介) -- [2. 环境配置](#2-环境配置) -- [3. 模型训练、评估、预测](#3-模型训练评估预测) -- [4. 推理部署](#4-推理部署) - - [4.1 Python推理](#41-python推理) - - [4.2 C++推理部署](#42-c推理部署) - - [4.3 Serving服务化部署](#43-serving服务化部署) - - [4.4 更多推理部署](#44-更多推理部署) -- [5. FAQ](#5-faq) - -<a name="1"></a> -## 1. 算法简介 - -该算法由来自北京交通大学机器学习与认识计算研究团队的ocr识别队研发,其在PaddleOCR算法模型挑战赛 - 赛题二:通用表格识别任务中排行榜荣获一等奖,排行榜精度相比PP-Structure表格识别模型提升0.8%,推理速度提升3倍。优化思路如下: - -- 1. 改善推理过程,至EOS停止,速度提升3倍 -- 2. 升级Backbone为LCNetV2(SSLD版本) -- 3. 行列特征增强模块 -- 4. 提升分辨率488至512 -- 5. 三阶段训练策略 - -在PubTabNet表格识别公开数据集上,算法复现效果如下: - -|模型|骨干网络|配置文件|acc|下载链接| -| --- | --- | --- | --- | --- | -|SLANet|LCNetV2|[configs/table/SLANet_lcnetv2.yml](../../configs/table/SLANet_lcnetv2.yml)|76.67%| [训练模型](https://paddleocr.bj.bcebos.com/openatom/ch_ppstructure_openatom_SLANetv2_train.tar) /[推理模型](https://paddleocr.bj.bcebos.com/openatom/ch_ppstructure_openatom_SLANetv2_infer.tar) | - - -<a name="2"></a> -## 2. 环境配置 -请先参考[《运行环境准备》](./environment.md)配置PaddleOCR运行环境,参考[《项目克隆》](./clone.md)克隆项目代码。 - - -<a name="3"></a> -## 3. 模型训练、评估、预测 - -上述SLANet_LCNetv2模型使用PubTabNet表格识别公开数据集训练得到,数据集下载可参考 [table_datasets](./dataset/table_datasets.md)。 - -### 启动训练 - -数据下载完成后,请参考[文本识别教程](./recognition.md)进行训练。PaddleOCR对代码进行了模块化,训练不同的模型只需要**更换配置文件**即可。 - -训练命令如下: -```shell -# stage1 -python3 -m paddle.distributed.launch --gpus '0,1,2,3,4,5,6,7' tools/train.py -c configs/table/SLANet_lcnetv2.yml -# stage2 加载stage1的best model作为预训练模型,学习率调整为0.0001; -# stage3 加载stage2的best model作为预训练模型,不调整学习率,将配置文件中所有的488修改为512. -``` - -<a name="4"></a> -## 4. 推理部署 - -<a name="4-1"></a> -### 4.1 Python推理 -将训练得到best模型,转换成inference model,可以使用如下命令进行转换: - -```shell -# 注意将pretrained_model的路径设置为本地路径。 -python3 tools/export_model.py -c configs/table/SLANet_lcnetv2.yml -o Global.pretrained_model=path/best_accuracy Global.save_inference_dir=./inference/slanet_lcnetv2_infer -``` - -**注意:** -- 如果您是在自己的数据集上训练的模型,并且调整了字典文件,请注意修改配置文件中的`character_dict_path`是否为所正确的字典文件。 - -转换成功后,在目录下有三个文件: -``` -./inference/slanet_lcnetv2_infer/ - ├── inference.pdiparams # 识别inference模型的参数文件 - ├── inference.pdiparams.info # 识别inference模型的参数信息,可忽略 - └── inference.pdmodel # 识别inference模型的program文件 -``` - - -执行如下命令进行模型推理: - -```shell -cd ppstructure/ -python table/predict_structure.py --table_model_dir=../inference/slanet_lcnetv2_infer/ --table_char_dict_path=../ppocr/utils/dict/table_structure_dict.txt --image_dir=docs/table/table.jpg --output=../output/table_slanet_lcnetv2 --use_gpu=False --benchmark=True --enable_mkldnn=True --table_max_len=512 -# 预测文件夹下所有图像时,可修改image_dir为文件夹,如 --image_dir='docs/table'。 -``` - -执行命令后,上面图像的预测结果(结构信息和表格中每个单元格的坐标)会打印到屏幕上,同时会保存单元格坐标的可视化结果。示例如下: -结果如下: -```shell -[2022/06/16 13:06:54] ppocr INFO: result: ['<html>', '<body>', '<table>', '<thead>', '<tr>', '<td></td>', '<td></td>', '<td></td>', '<td></td>', '<td></td>', '</tr>', '</thead>', '<tbody>', '<tr>', '<td></td>', '<td></td>', '<td></td>', '<td></td>', '<td></td>', '</tr>', '<tr>', '<td></td>', '<td></td>', '<td></td>', '<td></td>', '<td></td>', '</tr>', '<tr>', '<td></td>', '<td></td>', '<td></td>', '<td></td>', '<td></td>', '</tr>', '<tr>', '<td></td>', '<td></td>', '<td></td>', '<td></td>', '<td></td>', '</tr>', '<tr>', '<td></td>', '<td></td>', '<td></td>', '<td></td>', '<td></td>', '</tr>', '<tr>', '<td></td>', '<td></td>', '<td></td>', '<td></td>', '<td></td>', '</tr>', '<tr>', '<td></td>', '<td></td>', '<td></td>', '<td></td>', '<td></td>', '</tr>', '<tr>', '<td></td>', '<td></td>', '<td></td>', '<td></td>', '<td></td>', '</tr>', '<tr>', '<td></td>', '<td></td>', '<td></td>', '<td></td>', '<td></td>', '</tr>', '<tr>', '<td></td>', '<td></td>', '<td></td>', '<td></td>', '<td></td>', '</tr>', '<tr>', '<td></td>', '<td></td>', '<td></td>', '<td></td>', '<td></td>', '</tr>', '<tr>', '<td></td>', '<td></td>', '<td></td>', '<td></td>', '<td></td>', '</tr>', '<tr>', '<td></td>', '<td></td>', '<td></td>', '<td></td>', '<td></td>', '</tr>', '<tr>', '<td></td>', '<td></td>', '<td></td>', '<td></td>', '<td></td>', '</tr>', '<tr>', '<td></td>', '<td></td>', '<td></td>', '<td></td>', '<td></td>', '</tr>', '</tbody>', '</table>', '</body>', '</html>'], [[72.17591094970703, 10.759100914001465, 60.29658508300781, 16.6805362701416], [161.85562133789062, 10.884308815002441, 14.9495210647583, 16.727018356323242], [277.79876708984375, 29.54340362548828, 31.490320205688477, 18.143272399902344], -... -[336.11724853515625, 280.3601989746094, 39.456939697265625, 18.121286392211914]] -[2022/06/16 13:06:54] ppocr INFO: save vis result to ./output/table.jpg -[2022/06/16 13:06:54] ppocr INFO: Predict time of docs/table/table.jpg: 17.36806297302246 -``` - -<a name="4-2"></a> -### 4.2 C++推理部署 - -由于C++预处理后处理还未支持SLANet - -<a name="4-3"></a> -### 4.3 Serving服务化部署 - -暂不支持 - -<a name="4-4"></a> -### 4.4 更多推理部署 - -暂不支持 - -<a name="5"></a> -## 5. FAQ diff --git a/docs/algorithm/table_recognition/algorithm_table_slanet.md b/docs/algorithm/table_recognition/algorithm_table_slanet.md index 0c79a25582..6ae055ae32 100644 --- a/docs/algorithm/table_recognition/algorithm_table_slanet.md +++ b/docs/algorithm/table_recognition/algorithm_table_slanet.md @@ -6,7 +6,7 @@ comments: true ## 1. 算法简介 -PaddleOCR 算法模型挑战赛 - 赛题二:通用表格识别任务排行榜第一算法。核心思路: +该算法由来自北京交通大学机器学习与认识计算研究团队的ocr识别队研发,其在PaddleOCR算法模型挑战赛 - 赛题二:通用表格识别任务中排行榜荣获一等奖,排行榜精度相比PP-Structure表格识别模型提升0.8%,推理速度提升3倍。优化思路如下: - 1. 改善推理过程,至EOS停止,速度提升3倍 - 2. 升级Backbone为LCNetV2(SSLD版本) @@ -16,9 +16,9 @@ PaddleOCR 算法模型挑战赛 - 赛题二:通用表格识别任务排行榜 在PubTabNet表格识别公开数据集上,算法复现效果如下: -|模型|骨干网络|配置文件|acc| -| --- | --- | --- | --- | -|SLANet|LCNetV2|[configs/table/SLANet_lcnetv2.yml](../../configs/table/SLANet_lcnetv2.yml)|76.67%| +|模型|骨干网络|配置文件|acc|下载链接| +| --- | --- | --- | --- | --- | +|SLANet|LCNetV2|[configs/table/SLANet_lcnetv2.yml](https://github.com/PaddlePaddle/PaddleOCR/tree/main/configs/table/SLANet_lcnetv2.yml)|76.67%| [训练模型](https://paddleocr.bj.bcebos.com/openatom/ch_ppstructure_openatom_SLANetv2_train.tar) /[推理模型](https://paddleocr.bj.bcebos.com/openatom/ch_ppstructure_openatom_SLANetv2_infer.tar) | ## 2. 环境配置 @@ -67,7 +67,7 @@ python3 tools/export_model.py -c configs/table/SLANet_lcnetv2.yml -o Global.pret ```bash linenums="1" cd ppstructure/ -python3.7 table/predict_structure.py --table_model_dir=../inference/slanet_lcnetv2_infer/ --table_char_dict_path=../ppocr/utils/dict/table_structure_dict.txt --image_dir=docs/table/table.jpg --output=../output/table_slanet_lcnetv2 --use_gpu=False --benchmark=True --enable_mkldnn=True +python table/predict_structure.py --table_model_dir=../inference/slanet_lcnetv2_infer/ --table_char_dict_path=../ppocr/utils/dict/table_structure_dict.txt --image_dir=docs/table/table.jpg --output=../output/table_slanet_lcnetv2 --use_gpu=False --benchmark=True --enable_mkldnn=True --table_max_len=512 # 预测文件夹下所有图像时,可修改image_dir为文件夹,如 --image_dir='docs/table'。 ``` diff --git a/docs/algorithm/text_recognition/algorithm_rec_svtrv2.md b/docs/algorithm/text_recognition/algorithm_rec_svtrv2.md index 22f320d3e5..66733fd3a9 100644 --- a/docs/algorithm/text_recognition/algorithm_rec_svtrv2.md +++ b/docs/algorithm/text_recognition/algorithm_rec_svtrv2.md @@ -8,7 +8,15 @@ comments: true ### SVTRv2算法简介 -[PaddleOCR 算法模型挑战赛 - 赛题一:OCR 端到端识别任务](https://aistudio.baidu.com/competition/detail/1131/0/introduction)排行榜第一算法。主要思路:1、检测和识别模型的Backbone升级为RepSVTR;2、识别教师模型升级为SVTRv2,可识别长文本。 +🔥 该算法由来自复旦大学视觉与学习实验室([FVL](https://fvl.fudan.edu.cn))的[OpenOCR](https://github.com/Topdu/OpenOCR)团队研发,其在[PaddleOCR算法模型挑战赛 - 赛题一:OCR端到端识别任务](https://aistudio.baidu.com/competition/detail/1131/0/introduction)中荣获一等奖,B榜端到端识别精度相比PP-OCRv4提升2.5%,推理速度持平。主要思路:1、检测和识别模型的Backbone升级为RepSVTR;2、识别教师模型升级为SVTRv2,可识别长文本。 + +|模型|配置文件|端到端|下载链接| +| --- | --- | --- | --- | +|PP-OCRv4| |A榜 62.77% <br> B榜 62.51%| [Model List](../../ppocr/model_list.md) | +|SVTRv2(Rec Sever)|[configs/rec/SVTRv2/rec_svtrv2_ch.yml](https://github.com/PaddlePaddle/PaddleOCR/tree/main/configs/rec/SVTRv2/rec_svtrv2_ch.yml)|A榜 68.81% (使用PP-OCRv4检测模型)| [训练模型](https://paddleocr.bj.bcebos.com/openatom/openatom_rec_svtrv2_ch_train.tar) / [推理模型](https://paddleocr.bj.bcebos.com/openatom/openatom_rec_svtrv2_ch_infer.tar) | +|RepSVTR(Mobile)|[识别](https://github.com/PaddlePaddle/PaddleOCR/tree/main/configs/rec/SVTRv2/rec_repsvtr_ch.yml) <br> [识别蒸馏](https://github.com/PaddlePaddle/PaddleOCR/tree/main/configs/rec/SVTRv2/rec_svtrv2_ch_distillation.yml) <br> [检测](https://github.com/PaddlePaddle/PaddleOCR/tree/main/configs/det/det_repsvtr_db.yml)|B榜 65.07%| 识别: [训练模型](https://paddleocr.bj.bcebos.com/openatom/openatom_rec_repsvtr_ch_train.tar) / [推理模型](https://paddleocr.bj.bcebos.com/openatom/openatom_rec_repsvtr_ch_infer.tar) <br> 识别蒸馏: [训练模型](https://paddleocr.bj.bcebos.com/openatom/openatom_rec_svtrv2_distill_ch_train.tar) / [推理模型](https://paddleocr.bj.bcebos.com/openatom/openatom_rec_svtrv2_distill_ch_infer.tar) <br> 检测: [训练模型](https://paddleocr.bj.bcebos.com/openatom/openatom_det_repsvtr_ch_train.tar) / [推理模型](https://paddleocr.bj.bcebos.com/openatom/openatom_det_repsvtr_ch_infer.tar) | + +🚀 快速使用:参考PP-OCR推理[说明文档](https://github.com/PaddlePaddle/PaddleOCR/blob/main/doc/doc_ch/inference_ppocr.md),将检测和识别模型替换为上表中对应的RepSVTR或SVTRv2推理模型即可使用。 ## 2. 环境配置 @@ -79,7 +87,7 @@ python3 tools/infer/predict_rec.py --image_dir='./doc/imgs_words_en/word_10.png' # 预测文件夹下所有图像时,可修改image_dir为文件夹,如 --image_dir='./doc/imgs_words_en/'。 ``` -![](../imgs_words_en/word_10.png) +![](../../ppocr/infer_deploy/images/word_10.png) 执行命令后,上面图像的预测结果(识别的文本和得分)会打印到屏幕上,示例如下: 结果如下: @@ -96,7 +104,7 @@ Predicts of ./doc/imgs_words_en/word_10.png:('pain', 0.9999998807907104) ### 4.2 C++推理部署 -由于C++预处理后处理还未支持SVTRv2 +准备好推理模型后,参考[cpp infer](https://github.com/PaddlePaddle/PaddleOCR/tree/main/deploy/cpp_infer)教程进行操作即可。 ### 4.3 Serving服务化部署 @@ -104,7 +112,7 @@ Predicts of ./doc/imgs_words_en/word_10.png:('pain', 0.9999998807907104) ### 4.4 更多推理部署 -暂不支持 +- Paddle2ONNX推理:准备好推理模型后,参考[paddle2onnx](https://github.com/PaddlePaddle/PaddleOCR/tree/main/deploy/paddle2onnx)教程操作。 ## 5. FAQ