diff --git a/doc/doc_ch/algorithm_rec_svtrv2.md b/doc/doc_ch/algorithm_rec_svtrv2.md
deleted file mode 100644
index 1391cc790c..0000000000
--- a/doc/doc_ch/algorithm_rec_svtrv2.md
+++ /dev/null
@@ -1,150 +0,0 @@
-# 场景文本识别算法-SVTRv2
-
-- [1. 算法简介](#1)
-- [2. 环境配置](#2)
-- [3. 模型训练、评估、预测](#3)
-    - [3.1 训练](#3-1)
-    - [3.2 评估](#3-2)
-    - [3.3 预测](#3-3)
-- [4. 推理部署](#4)
-    - [4.1 Python推理](#4-1)
-    - [4.2 C++推理](#4-2)
-    - [4.3 Serving服务化部署](#4-3)
-    - [4.4 更多推理部署](#4-4)
-- [5. FAQ](#5)
-
-<a name="1"></a>
-## 1. 算法简介
-
-### SVTRv2算法简介
-
-<a name="1"></a>
-🔥 该算法由来自复旦大学视觉与学习实验室([FVL](https://fvl.fudan.edu.cn))的[OpenOCR](https://github.com/Topdu/OpenOCR)团队研发,其在[PaddleOCR算法模型挑战赛 - 赛题一:OCR端到端识别任务](https://aistudio.baidu.com/competition/detail/1131/0/introduction)中荣获一等奖,B榜端到端识别精度相比PP-OCRv4提升2.5%,推理速度持平。主要思路:1、检测和识别模型的Backbone升级为RepSVTR;2、识别教师模型升级为SVTRv2,可识别长文本。
-
-|模型|配置文件|端到端|下载链接|
-| --- | --- | --- | --- |
-|PP-OCRv4| |A榜 62.77% <br> B榜 62.51%| [Model List](../../doc/doc_ch/models_list.md) |
-|SVTRv2(Rec Sever)|[configs/rec/SVTRv2/rec_svtrv2_ch.yml](../../configs/rec/SVTRv2/rec_svtrv2_ch.yml)|A榜 68.81% (使用PP-OCRv4检测模型)| [训练模型](https://paddleocr.bj.bcebos.com/openatom/openatom_rec_svtrv2_ch_train.tar) / [推理模型](https://paddleocr.bj.bcebos.com/openatom/openatom_rec_svtrv2_ch_infer.tar) |
-|RepSVTR(Mobile)|[识别](../../configs/rec/SVTRv2/rec_repsvtr_ch.yml) <br> [识别蒸馏](../../configs/rec/SVTRv2/rec_svtrv2_ch_distillation.yml) <br> [检测](../../configs/det/det_repsvtr_db.yml)|B榜 65.07%| 识别: [训练模型](https://paddleocr.bj.bcebos.com/openatom/openatom_rec_repsvtr_ch_train.tar) / [推理模型](https://paddleocr.bj.bcebos.com/openatom/openatom_rec_repsvtr_ch_infer.tar) <br> 识别蒸馏: [训练模型](https://paddleocr.bj.bcebos.com/openatom/openatom_rec_svtrv2_distill_ch_train.tar) / [推理模型](https://paddleocr.bj.bcebos.com/openatom/openatom_rec_svtrv2_distill_ch_infer.tar) <br> 检测: [训练模型](https://paddleocr.bj.bcebos.com/openatom/openatom_det_repsvtr_ch_train.tar) / [推理模型](https://paddleocr.bj.bcebos.com/openatom/openatom_det_repsvtr_ch_infer.tar) |
-
-🚀 快速使用:参考PP-OCR推理[说明文档](../../doc/doc_ch/inference_ppocr.md),将检测和识别模型替换为上表中对应的RepSVTR或SVTRv2推理模型即可使用。
-
-<a name="2"></a>
-## 2. 环境配置
-请先参考[《运行环境准备》](./environment.md)配置PaddleOCR运行环境,参考[《项目克隆》](./clone.md)克隆项目代码。
-
-
-<a name="3"></a>
-## 3. 模型训练、评估、预测
-
-<a name="3-1"></a>
-### 3.1 模型训练
-
-
-训练命令:
-```shell
-#单卡训练(训练周期长,不建议)
-python3 tools/train.py -c configs/rec/SVTRv2/rec_repsvtr_gtc.yml
-
-#多卡训练,通过--gpus参数指定卡号
-# Rec 学生模型
-python -m paddle.distributed.launch --gpus '0,1,2,3,4,5,6,7'  tools/train.py -c configs/rec/SVTRv2/rec_repsvtr_gtc.yml
-# Rec 教师模型
-python -m paddle.distributed.launch --gpus '0,1,2,3,4,5,6,7'  tools/train.py -c configs/rec/SVTRv2/rec_svtrv2_gtc.yml
-# Rec 蒸馏训练
-python -m paddle.distributed.launch --gpus '0,1,2,3,4,5,6,7'  tools/train.py -c configs/rec/SVTRv2/rec_svtrv2_gtc_distill.yml
-```
-
-<a name="3-2"></a>
-### 3.2 评估
-
-
-```shell
-# 注意将pretrained_model的路径设置为本地路径。
-python3 -m paddle.distributed.launch --gpus '0' tools/eval.py -c configs/rec/SVTRv2/rec_repsvtr_gtc.yml -o Global.pretrained_model=output/rec_repsvtr_gtc/best_accuracy
-```
-
-<a name="3-3"></a>
-### 3.3 预测
-
-使用如下命令进行单张图片预测:
-```shell
-# 注意将pretrained_model的路径设置为本地路径。
-python3 tools/infer_rec.py -c tools/eval.py -c configs/rec/SVTRv2/rec_repsvtr_gtc.yml -o Global.pretrained_model=output/rec_repsvtr_gtc/best_accuracy Global.infer_img='./doc/imgs_words_en/word_10.png'
-# 预测文件夹下所有图像时,可修改infer_img为文件夹,如 Global.infer_img='./doc/imgs_words_en/'。
-```
-
-
-<a name="4"></a>
-## 4. 推理部署
-
-<a name="4-1"></a>
-### 4.1 Python推理
-首先将训练得到best模型,转换成inference model,以RepSVTR为例,可以使用如下命令进行转换:
-
-```shell
-# 注意将pretrained_model的路径设置为本地路径。
-python3 tools/export_model.py -c configs/rec/SVTRv2/rec_repsvtr_gtc.yml -o Global.pretrained_model=output/rec_repsvtr_gtc/best_accuracy Global.save_inference_dir=./inference/rec_repsvtr_infer
-```
-
-**注意:**
-- 如果您是在自己的数据集上训练的模型,并且调整了字典文件,请注意修改配置文件中的`character_dict_path`是否为所正确的字典文件。
-
-转换成功后,在目录下有三个文件:
-```
-./inference/rec_repsvtr_infer/
-    ├── inference.pdiparams         # 识别inference模型的参数文件
-    ├── inference.pdiparams.info    # 识别inference模型的参数信息,可忽略
-    └── inference.pdmodel           # 识别inference模型的program文件
-```
-
-
-执行如下命令进行模型推理:
-
-```shell
-python3 tools/infer/predict_rec.py --image_dir='./doc/imgs_words_en/word_10.png' --rec_model_dir='./inference/rec_repsvtr_infer/'
-# 预测文件夹下所有图像时,可修改image_dir为文件夹,如 --image_dir='./doc/imgs_words_en/'。
-```
-![](../imgs_words_en/word_10.png)
-
-执行命令后,上面图像的预测结果(识别的文本和得分)会打印到屏幕上,示例如下:
-结果如下:
-```shell
-Predicts of ./doc/imgs_words_en/word_10.png:('pain', 0.9999998807907104)
-```
-
-**注意**:
-
-- 如果您调整了训练时的输入分辨率,需要通过参数`rec_image_shape`设置为您需要的识别图像形状。
-- 在推理时需要设置参数`rec_char_dict_path`指定字典,如果您修改了字典,请修改该参数为您的字典文件。
-- 如果您修改了预处理方法,需修改`tools/infer/predict_rec.py`中SVTR的预处理为您的预处理方法。
-
-<a name="4-2"></a>
-### 4.2 C++推理部署
-
-准备好推理模型后,参考[cpp infer](../../deploy/cpp_infer/)教程进行操作即可。
-
-<a name="4-3"></a>
-### 4.3 Serving服务化部署
-
-暂不支持
-
-<a name="4-4"></a>
-### 4.4 更多推理部署
-
-- Paddle2ONNX推理:准备好推理模型后,参考[paddle2onnx](../../deploy/paddle2onnx/)教程操作。
-
-<a name="5"></a>
-## 5. FAQ
-
-## 引用
-
-```bibtex
-@article{Du2022SVTR,
-  title     = {SVTR: Scene Text Recognition with a Single Visual Model},
-  author    = {Du, Yongkun and Chen, Zhineng and Jia, Caiyan and Yin, Xiaoting and Zheng, Tianlun and Li, Chenxia and Du, Yuning and Jiang, Yu-Gang},
-  booktitle = {IJCAI},
-  year      = {2022},
-  url       = {https://arxiv.org/abs/2205.00159}
-}
-```
diff --git a/doc/doc_ch/algorithm_table_slanet.md b/doc/doc_ch/algorithm_table_slanet.md
deleted file mode 100644
index ea2f770914..0000000000
--- a/doc/doc_ch/algorithm_table_slanet.md
+++ /dev/null
@@ -1,111 +0,0 @@
-# 表格识别算法-SLANet-LCNetV2
-
-- [1. 算法简介](#1-算法简介)
-- [2. 环境配置](#2-环境配置)
-- [3. 模型训练、评估、预测](#3-模型训练评估预测)
-- [4. 推理部署](#4-推理部署)
-  - [4.1 Python推理](#41-python推理)
-  - [4.2 C++推理部署](#42-c推理部署)
-  - [4.3 Serving服务化部署](#43-serving服务化部署)
-  - [4.4 更多推理部署](#44-更多推理部署)
-- [5. FAQ](#5-faq)
-
-<a name="1"></a>
-## 1. 算法简介
-
-该算法由来自北京交通大学机器学习与认识计算研究团队的ocr识别队研发,其在PaddleOCR算法模型挑战赛 - 赛题二:通用表格识别任务中排行榜荣获一等奖,排行榜精度相比PP-Structure表格识别模型提升0.8%,推理速度提升3倍。优化思路如下:
-
-- 1. 改善推理过程,至EOS停止,速度提升3倍
-- 2. 升级Backbone为LCNetV2(SSLD版本)
-- 3. 行列特征增强模块
-- 4. 提升分辨率488至512
-- 5. 三阶段训练策略
-
-在PubTabNet表格识别公开数据集上,算法复现效果如下:
-
-|模型|骨干网络|配置文件|acc|下载链接|
-| --- | --- | --- | --- | --- |
-|SLANet|LCNetV2|[configs/table/SLANet_lcnetv2.yml](../../configs/table/SLANet_lcnetv2.yml)|76.67%| [训练模型](https://paddleocr.bj.bcebos.com/openatom/ch_ppstructure_openatom_SLANetv2_train.tar) /[推理模型](https://paddleocr.bj.bcebos.com/openatom/ch_ppstructure_openatom_SLANetv2_infer.tar) |
-
-
-<a name="2"></a>
-## 2. 环境配置
-请先参考[《运行环境准备》](./environment.md)配置PaddleOCR运行环境,参考[《项目克隆》](./clone.md)克隆项目代码。
-
-
-<a name="3"></a>
-## 3. 模型训练、评估、预测
-
-上述SLANet_LCNetv2模型使用PubTabNet表格识别公开数据集训练得到,数据集下载可参考 [table_datasets](./dataset/table_datasets.md)。
-
-### 启动训练
-
-数据下载完成后,请参考[文本识别教程](./recognition.md)进行训练。PaddleOCR对代码进行了模块化,训练不同的模型只需要**更换配置文件**即可。
-
-训练命令如下:
-```shell
-# stage1
-python3 -m paddle.distributed.launch --gpus '0,1,2,3,4,5,6,7'  tools/train.py -c configs/table/SLANet_lcnetv2.yml
-# stage2 加载stage1的best model作为预训练模型,学习率调整为0.0001;
-# stage3 加载stage2的best model作为预训练模型,不调整学习率,将配置文件中所有的488修改为512.
-```
-
-<a name="4"></a>
-## 4. 推理部署
-
-<a name="4-1"></a>
-### 4.1 Python推理
-将训练得到best模型,转换成inference model,可以使用如下命令进行转换:
-
-```shell
-# 注意将pretrained_model的路径设置为本地路径。
-python3 tools/export_model.py -c configs/table/SLANet_lcnetv2.yml -o Global.pretrained_model=path/best_accuracy Global.save_inference_dir=./inference/slanet_lcnetv2_infer
-```
-
-**注意:**
-- 如果您是在自己的数据集上训练的模型,并且调整了字典文件,请注意修改配置文件中的`character_dict_path`是否为所正确的字典文件。
-
-转换成功后,在目录下有三个文件:
-```
-./inference/slanet_lcnetv2_infer/
-    ├── inference.pdiparams         # 识别inference模型的参数文件
-    ├── inference.pdiparams.info    # 识别inference模型的参数信息,可忽略
-    └── inference.pdmodel           # 识别inference模型的program文件
-```
-
-
-执行如下命令进行模型推理:
-
-```shell
-cd ppstructure/
-python table/predict_structure.py --table_model_dir=../inference/slanet_lcnetv2_infer/ --table_char_dict_path=../ppocr/utils/dict/table_structure_dict.txt --image_dir=docs/table/table.jpg --output=../output/table_slanet_lcnetv2 --use_gpu=False --benchmark=True --enable_mkldnn=True --table_max_len=512
-# 预测文件夹下所有图像时,可修改image_dir为文件夹,如 --image_dir='docs/table'。
-```
-
-执行命令后,上面图像的预测结果(结构信息和表格中每个单元格的坐标)会打印到屏幕上,同时会保存单元格坐标的可视化结果。示例如下:
-结果如下:
-```shell
-[2022/06/16 13:06:54] ppocr INFO: result: ['<html>', '<body>', '<table>', '<thead>', '<tr>', '<td></td>', '<td></td>', '<td></td>', '<td></td>', '<td></td>', '</tr>', '</thead>', '<tbody>', '<tr>', '<td></td>', '<td></td>', '<td></td>', '<td></td>', '<td></td>', '</tr>', '<tr>', '<td></td>', '<td></td>', '<td></td>', '<td></td>', '<td></td>', '</tr>', '<tr>', '<td></td>', '<td></td>', '<td></td>', '<td></td>', '<td></td>', '</tr>', '<tr>', '<td></td>', '<td></td>', '<td></td>', '<td></td>', '<td></td>', '</tr>', '<tr>', '<td></td>', '<td></td>', '<td></td>', '<td></td>', '<td></td>', '</tr>', '<tr>', '<td></td>', '<td></td>', '<td></td>', '<td></td>', '<td></td>', '</tr>', '<tr>', '<td></td>', '<td></td>', '<td></td>', '<td></td>', '<td></td>', '</tr>', '<tr>', '<td></td>', '<td></td>', '<td></td>', '<td></td>', '<td></td>', '</tr>', '<tr>', '<td></td>', '<td></td>', '<td></td>', '<td></td>', '<td></td>', '</tr>', '<tr>', '<td></td>', '<td></td>', '<td></td>', '<td></td>', '<td></td>', '</tr>', '<tr>', '<td></td>', '<td></td>', '<td></td>', '<td></td>', '<td></td>', '</tr>', '<tr>', '<td></td>', '<td></td>', '<td></td>', '<td></td>', '<td></td>', '</tr>', '<tr>', '<td></td>', '<td></td>', '<td></td>', '<td></td>', '<td></td>', '</tr>', '<tr>', '<td></td>', '<td></td>', '<td></td>', '<td></td>', '<td></td>', '</tr>', '<tr>', '<td></td>', '<td></td>', '<td></td>', '<td></td>', '<td></td>', '</tr>', '</tbody>', '</table>', '</body>', '</html>'], [[72.17591094970703, 10.759100914001465, 60.29658508300781, 16.6805362701416], [161.85562133789062, 10.884308815002441, 14.9495210647583, 16.727018356323242], [277.79876708984375, 29.54340362548828, 31.490320205688477, 18.143272399902344],
-...
-[336.11724853515625, 280.3601989746094, 39.456939697265625, 18.121286392211914]]
-[2022/06/16 13:06:54] ppocr INFO: save vis result to ./output/table.jpg
-[2022/06/16 13:06:54] ppocr INFO: Predict time of docs/table/table.jpg: 17.36806297302246
-```
-
-<a name="4-2"></a>
-### 4.2 C++推理部署
-
-由于C++预处理后处理还未支持SLANet
-
-<a name="4-3"></a>
-### 4.3 Serving服务化部署
-
-暂不支持
-
-<a name="4-4"></a>
-### 4.4 更多推理部署
-
-暂不支持
-
-<a name="5"></a>
-## 5. FAQ
diff --git a/docs/algorithm/table_recognition/algorithm_table_slanet.md b/docs/algorithm/table_recognition/algorithm_table_slanet.md
index 0c79a25582..6ae055ae32 100644
--- a/docs/algorithm/table_recognition/algorithm_table_slanet.md
+++ b/docs/algorithm/table_recognition/algorithm_table_slanet.md
@@ -6,7 +6,7 @@ comments: true
 
 ## 1. 算法简介
 
-PaddleOCR 算法模型挑战赛 - 赛题二:通用表格识别任务排行榜第一算法。核心思路:
+该算法由来自北京交通大学机器学习与认识计算研究团队的ocr识别队研发,其在PaddleOCR算法模型挑战赛 - 赛题二:通用表格识别任务中排行榜荣获一等奖,排行榜精度相比PP-Structure表格识别模型提升0.8%,推理速度提升3倍。优化思路如下:
 
 - 1. 改善推理过程,至EOS停止,速度提升3倍
 - 2. 升级Backbone为LCNetV2(SSLD版本)
@@ -16,9 +16,9 @@ PaddleOCR 算法模型挑战赛 - 赛题二:通用表格识别任务排行榜
 
 在PubTabNet表格识别公开数据集上,算法复现效果如下:
 
-|模型|骨干网络|配置文件|acc|
-| --- | --- | --- | --- |
-|SLANet|LCNetV2|[configs/table/SLANet_lcnetv2.yml](../../configs/table/SLANet_lcnetv2.yml)|76.67%|
+|模型|骨干网络|配置文件|acc|下载链接|
+| --- | --- | --- | --- | --- |
+|SLANet|LCNetV2|[configs/table/SLANet_lcnetv2.yml](https://github.com/PaddlePaddle/PaddleOCR/tree/main/configs/table/SLANet_lcnetv2.yml)|76.67%| [训练模型](https://paddleocr.bj.bcebos.com/openatom/ch_ppstructure_openatom_SLANetv2_train.tar) /[推理模型](https://paddleocr.bj.bcebos.com/openatom/ch_ppstructure_openatom_SLANetv2_infer.tar) |
 
 ## 2. 环境配置
 
@@ -67,7 +67,7 @@ python3 tools/export_model.py -c configs/table/SLANet_lcnetv2.yml -o Global.pret
 
 ```bash linenums="1"
 cd ppstructure/
-python3.7 table/predict_structure.py --table_model_dir=../inference/slanet_lcnetv2_infer/ --table_char_dict_path=../ppocr/utils/dict/table_structure_dict.txt --image_dir=docs/table/table.jpg --output=../output/table_slanet_lcnetv2 --use_gpu=False --benchmark=True --enable_mkldnn=True
+python table/predict_structure.py --table_model_dir=../inference/slanet_lcnetv2_infer/ --table_char_dict_path=../ppocr/utils/dict/table_structure_dict.txt --image_dir=docs/table/table.jpg --output=../output/table_slanet_lcnetv2 --use_gpu=False --benchmark=True --enable_mkldnn=True --table_max_len=512
 # 预测文件夹下所有图像时,可修改image_dir为文件夹,如 --image_dir='docs/table'。
 ```
 
diff --git a/docs/algorithm/text_recognition/algorithm_rec_svtrv2.md b/docs/algorithm/text_recognition/algorithm_rec_svtrv2.md
index 22f320d3e5..66733fd3a9 100644
--- a/docs/algorithm/text_recognition/algorithm_rec_svtrv2.md
+++ b/docs/algorithm/text_recognition/algorithm_rec_svtrv2.md
@@ -8,7 +8,15 @@ comments: true
 
 ### SVTRv2算法简介
 
-[PaddleOCR 算法模型挑战赛 - 赛题一:OCR 端到端识别任务](https://aistudio.baidu.com/competition/detail/1131/0/introduction)排行榜第一算法。主要思路:1、检测和识别模型的Backbone升级为RepSVTR;2、识别教师模型升级为SVTRv2,可识别长文本。
+🔥 该算法由来自复旦大学视觉与学习实验室([FVL](https://fvl.fudan.edu.cn))的[OpenOCR](https://github.com/Topdu/OpenOCR)团队研发,其在[PaddleOCR算法模型挑战赛 - 赛题一:OCR端到端识别任务](https://aistudio.baidu.com/competition/detail/1131/0/introduction)中荣获一等奖,B榜端到端识别精度相比PP-OCRv4提升2.5%,推理速度持平。主要思路:1、检测和识别模型的Backbone升级为RepSVTR;2、识别教师模型升级为SVTRv2,可识别长文本。
+
+|模型|配置文件|端到端|下载链接|
+| --- | --- | --- | --- |
+|PP-OCRv4| |A榜 62.77% <br> B榜 62.51%| [Model List](../../ppocr/model_list.md) |
+|SVTRv2(Rec Sever)|[configs/rec/SVTRv2/rec_svtrv2_ch.yml](https://github.com/PaddlePaddle/PaddleOCR/tree/main/configs/rec/SVTRv2/rec_svtrv2_ch.yml)|A榜 68.81% (使用PP-OCRv4检测模型)| [训练模型](https://paddleocr.bj.bcebos.com/openatom/openatom_rec_svtrv2_ch_train.tar) / [推理模型](https://paddleocr.bj.bcebos.com/openatom/openatom_rec_svtrv2_ch_infer.tar) |
+|RepSVTR(Mobile)|[识别](https://github.com/PaddlePaddle/PaddleOCR/tree/main/configs/rec/SVTRv2/rec_repsvtr_ch.yml) <br> [识别蒸馏](https://github.com/PaddlePaddle/PaddleOCR/tree/main/configs/rec/SVTRv2/rec_svtrv2_ch_distillation.yml) <br> [检测](https://github.com/PaddlePaddle/PaddleOCR/tree/main/configs/det/det_repsvtr_db.yml)|B榜 65.07%| 识别: [训练模型](https://paddleocr.bj.bcebos.com/openatom/openatom_rec_repsvtr_ch_train.tar) / [推理模型](https://paddleocr.bj.bcebos.com/openatom/openatom_rec_repsvtr_ch_infer.tar) <br> 识别蒸馏: [训练模型](https://paddleocr.bj.bcebos.com/openatom/openatom_rec_svtrv2_distill_ch_train.tar) / [推理模型](https://paddleocr.bj.bcebos.com/openatom/openatom_rec_svtrv2_distill_ch_infer.tar) <br> 检测: [训练模型](https://paddleocr.bj.bcebos.com/openatom/openatom_det_repsvtr_ch_train.tar) / [推理模型](https://paddleocr.bj.bcebos.com/openatom/openatom_det_repsvtr_ch_infer.tar) |
+
+🚀 快速使用:参考PP-OCR推理[说明文档](https://github.com/PaddlePaddle/PaddleOCR/blob/main/doc/doc_ch/inference_ppocr.md),将检测和识别模型替换为上表中对应的RepSVTR或SVTRv2推理模型即可使用。
 
 ## 2. 环境配置
 
@@ -79,7 +87,7 @@ python3 tools/infer/predict_rec.py --image_dir='./doc/imgs_words_en/word_10.png'
 # 预测文件夹下所有图像时,可修改image_dir为文件夹,如 --image_dir='./doc/imgs_words_en/'。
 ```
 
-![](../imgs_words_en/word_10.png)
+![](../../ppocr/infer_deploy/images/word_10.png)
 
 执行命令后,上面图像的预测结果(识别的文本和得分)会打印到屏幕上,示例如下:
 结果如下:
@@ -96,7 +104,7 @@ Predicts of ./doc/imgs_words_en/word_10.png:('pain', 0.9999998807907104)
 
 ### 4.2 C++推理部署
 
-由于C++预处理后处理还未支持SVTRv2
+准备好推理模型后,参考[cpp infer](https://github.com/PaddlePaddle/PaddleOCR/tree/main/deploy/cpp_infer)教程进行操作即可。
 
 ### 4.3 Serving服务化部署
 
@@ -104,7 +112,7 @@ Predicts of ./doc/imgs_words_en/word_10.png:('pain', 0.9999998807907104)
 
 ### 4.4 更多推理部署
 
-暂不支持
+- Paddle2ONNX推理:准备好推理模型后,参考[paddle2onnx](https://github.com/PaddlePaddle/PaddleOCR/tree/main/deploy/paddle2onnx)教程操作。
 
 ## 5. FAQ