Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

[Docathon] Fix zh api_label #6214

Merged
merged 6 commits into from
Oct 11, 2023
Merged
Show file tree
Hide file tree
Changes from all commits
Commits
File filter

Filter by extension

Filter by extension

Conversations
Failed to load comments.
Loading
Jump to
Jump to file
Failed to load files.
Loading
Diff view
Diff view
2 changes: 1 addition & 1 deletion docs/api/paddle/Overview_cn.rst
Original file line number Diff line number Diff line change
Expand Up @@ -244,7 +244,7 @@ tensor 创建相关
" :ref:`paddle.zeros <cn_api_paddle_zeros>` ", "创建形状为 shape 、数据类型为 dtype 且值全为 0 的 Tensor"
" :ref:`paddle.zeros_like <cn_api_paddle_zeros_like>` ", "返回一个和 x 具有相同的形状的全零 Tensor,数据类型为 dtype 或者和 x 相同"
" :ref:`paddle.complex <cn_api_paddle_complex>` ", "给定实部和虚部,返回一个复数 Tensor"
" :ref:`paddle.create_parameter <cn_api_fluid_layers_create_parameter>` ", "创建一个参数,该参数是一个可学习的变量, 拥有梯度并且可优化"
" :ref:`paddle.create_parameter <cn_api_paddle_create_parameter>` ", "创建一个参数,该参数是一个可学习的变量, 拥有梯度并且可优化"
" :ref:`paddle.clone <cn_api_paddle_clone>` ", "对输入 Tensor ``x`` 进行拷贝,并返回一个新的 Tensor,并且该操作提供梯度回传"
" :ref:`paddle.batch <cn_api_paddle_batch>` ", "一个 reader 的装饰器。返回的 reader 将输入 reader 的数据打包成指定的 batch_size 大小的批处理数据(不推荐使用)"
" :ref:`paddle.polar <cn_api_paddle_polar>`", "对于给定的模 ``abs`` 和相位角 ``angle``,返回一个对应复平面上的坐标复数 Tensor"
Expand Down
2 changes: 1 addition & 1 deletion docs/api/paddle/linalg/Overview_cn.rst
Original file line number Diff line number Diff line change
Expand Up @@ -58,7 +58,7 @@ paddle.linalg 目录下包含飞桨框架支持的线性代数相关 API。具
" :ref:`paddle.linalg.eigvalsh <cn_api_paddle_linalg_eigvalsh>` ", "计算厄米特矩阵或者实数对称矩阵的特征值"
" :ref:`paddle.linalg.cholesky <cn_api_paddle_linalg_cholesky>` ", "计算一个实数对称正定矩阵的 Cholesky 分解"
" :ref:`paddle.linalg.svd <cn_api_paddle_linalg_svd>` ", "计算矩阵的奇异值分解"
" :ref:`paddle.linalg.pca_lowrank <cn_api_linalg_pca_lowrank>` ", "对矩阵进行线性主成分分析"
" :ref:`paddle.linalg.pca_lowrank <cn_api_paddle_linalg_pca_lowrank>` ", "对矩阵进行线性主成分分析"
" :ref:`paddle.linalg.qr <cn_api_paddle_linalg_qr>` ", "计算矩阵的正交三角分解(也称 QR 分解)"
" :ref:`paddle.linalg.lu <cn_api_paddle_linalg_lu>` ", "计算矩阵的 LU 分解"
" :ref:`paddle.linalg.lu_unpack <cn_api_paddle_linalg_lu_unpack>` ", "对矩阵的 LU 分解结果进行展开得到各单独矩阵"
Expand Down
6 changes: 3 additions & 3 deletions docs/api/paddle/nn/Overview_cn.rst
Original file line number Diff line number Diff line change
Expand Up @@ -249,7 +249,7 @@ Loss 层

" :ref:`paddle.nn.BCELoss <cn_api_paddle_nn_BCELoss>` ", "BCELoss 层"
" :ref:`paddle.nn.BCEWithLogitsLoss <cn_api_paddle_nn_BCEWithLogitsLoss>` ", "BCEWithLogitsLoss 层"
" :ref:`paddle.nn.CosineEmbeddingLoss <cn_api_nn_loss_CosineEmbeddingLoss>` ", "CosineEmbeddingLoss 层"
" :ref:`paddle.nn.CosineEmbeddingLoss <cn_api_paddle_nn_CosineEmbeddingLoss>` ", "CosineEmbeddingLoss 层"
" :ref:`paddle.nn.CrossEntropyLoss <cn_api_paddle_nn_CrossEntropyLoss>` ", "交叉熵损失层"
" :ref:`paddle.nn.CTCLoss <cn_api_paddle_nn_CTCLoss>` ", "CTCLoss 层"
" :ref:`paddle.nn.HSigmoidLoss <cn_api_paddle_nn_HSigmoidLoss>` ", "层次 sigmoid 损失层"
Expand Down Expand Up @@ -474,7 +474,7 @@ Embedding 相关函数

" :ref:`paddle.nn.functional.binary_cross_entropy <cn_api_paddle_nn_functional_binary_cross_entropy>` ", "二值交叉熵损失值"
" :ref:`paddle.nn.functional.binary_cross_entropy_with_logits <cn_api_paddle_nn_functional_binary_cross_entropy_with_logits>` ", "logits 二值交叉熵损失值"
" :ref:`paddle.nn.functional.cosine_embedding_loss <cn_paddle_nn_functional_cosine_embedding_loss>` ", "用于计算余弦相似度损失"
" :ref:`paddle.nn.functional.cosine_embedding_loss <cn_api_paddle_nn_functional_cosine_embedding_loss>` ", "用于计算余弦相似度损失"
" :ref:`paddle.nn.functional.ctc_loss <cn_api_paddle_nn_functional_ctc_loss>` ", "用于计算 ctc 损失"
" :ref:`paddle.nn.functional.dice_loss <cn_api_paddle_nn_functional_dice_loss>` ", "用于比较预测结果跟标签之间的相似度"
" :ref:`paddle.nn.functional.hsigmoid_loss <cn_api_paddle_nn_functional_hsigmoid_loss>` ", "层次 sigmoid 损失函数"
Expand All @@ -494,7 +494,7 @@ Embedding 相关函数
" :ref:`paddle.nn.functional.soft_margin_loss <cn_api_paddle_nn_functional_soft_margin_loss>` ", "用于计算 soft margin loss 损失函数"
" :ref:`paddle.nn.functional.triplet_margin_loss <cn_api_paddle_nn_functional_triplet_margin_loss>` ", "用于计算 TripletMarginLoss"
" :ref:`paddle.nn.functional.triplet_margin_with_distance_loss <cn_api_paddle_nn_functional_triplet_margin_with_distance_loss>` ", "用户自定义距离函数用于计算 triplet margin loss 损失"
" :ref:`paddle.nn.functional.multi_label_soft_margin_loss <cn_api_nn_functional_multi_label_soft_margin_loss>` ", "用于计算多分类的 hinge loss 损失函数"
" :ref:`paddle.nn.functional.multi_label_soft_margin_loss <cn_api_paddle_nn_functional_multi_label_soft_margin_loss>` ", "用于计算多分类的 hinge loss 损失函数"
" :ref:`paddle.nn.functional.multi_margin_loss <cn_api_paddle_nn_functional_multi_margin_loss>` ", "用于计算 multi margin loss 损失函数"


Expand Down
12 changes: 6 additions & 6 deletions docs/guides/advanced/gradient_clip_cn.rst
Original file line number Diff line number Diff line change
Expand Up @@ -42,7 +42,7 @@

使用方式:

需要创建一个 :ref:`paddle.nn.ClipGradByValue <cn_api_fluid_clip_ClipGradByValue>` 类的实例,然后传入到优化器中,优化器会在更新参数前,对梯度进行裁剪。
需要创建一个 :ref:`paddle.nn.ClipGradByValue <cn_api_paddle_nn_ClipGradByValue>` 类的实例,然后传入到优化器中,优化器会在更新参数前,对梯度进行裁剪。

- **全部参数裁剪(默认)**

Expand All @@ -60,7 +60,7 @@

- **部分参数裁剪**

部分参数裁剪需要设置参数的 :ref:`paddle.ParamAttr <cn_api_fluid_ParamAttr>` ,其中的 ``need_clip`` 默认为 True,表示需要裁剪,如果设置为 False,则不会裁剪。
部分参数裁剪需要设置参数的 :ref:`paddle.ParamAttr <cn_api_paddle_ParamAttr>` ,其中的 ``need_clip`` 默认为 True,表示需要裁剪,如果设置为 False,则不会裁剪。

例如:仅裁剪 `linear` 中 `weight` 的梯度,则需要在创建 `linear` 层时设置 `bias_attr` 如下:

Expand All @@ -75,7 +75,7 @@

使用方式:

需要创建一个 :ref:`paddle.nn.ClipGradByNorm <cn_api_fluid_clip_ClipGradByNorm>` 类的实例,然后传入到优化器中,优化器会在更新参数前,对梯度进行裁剪。
需要创建一个 :ref:`paddle.nn.ClipGradByNorm <cn_api_paddle_nn_ClipGradByNorm>` 类的实例,然后传入到优化器中,优化器会在更新参数前,对梯度进行裁剪。

裁剪公式如下:

Expand Down Expand Up @@ -109,7 +109,7 @@

- **部分参数裁剪**

部分参数裁剪的设置方式与上面一致,也是通过设置参数的 :ref:`paddle.ParamAttr <cn_api_fluid_ParamAttr>` ,其中的 ``need_clip`` 默认为 True,表示需要裁剪,如果设置为 False,则不会裁剪。
部分参数裁剪的设置方式与上面一致,也是通过设置参数的 :ref:`paddle.ParamAttr <cn_api_paddle_ParamAttr>` ,其中的 ``need_clip`` 默认为 True,表示需要裁剪,如果设置为 False,则不会裁剪。

例如:仅裁剪 `linear` 中 `bias` 的梯度,则需要在创建 `linear` 层时设置 `weight_attr` 如下:

Expand All @@ -124,7 +124,7 @@

使用方式:

需要创建一个 :ref:`paddle.nn.ClipGradByGlobalNorm <cn_api_fluid_clip_ClipGradByGlobalNorm>` 类的实例,然后传入到优化器中,优化器会在更新参数前,对梯度进行裁剪。
需要创建一个 :ref:`paddle.nn.ClipGradByGlobalNorm <cn_api_paddle_nn_ClipGradByGlobalNorm>` 类的实例,然后传入到优化器中,优化器会在更新参数前,对梯度进行裁剪。

裁剪公式如下:

Expand Down Expand Up @@ -161,7 +161,7 @@

- **部分参数裁剪**

部分参数裁剪的设置方式与上面一致,也是通过设置参数的 :ref:`paddle.ParamAttr <cn_api_fluid_ParamAttr>` ,其中的 ``need_clip`` 默认为 True,表示需要裁剪,如果设置为 False,则不会裁剪。可参考上面的示例代码进行设置。
部分参数裁剪的设置方式与上面一致,也是通过设置参数的 :ref:`paddle.ParamAttr <cn_api_paddle_ParamAttr>` ,其中的 ``need_clip`` 默认为 True,表示需要裁剪,如果设置为 False,则不会裁剪。可参考上面的示例代码进行设置。

由上面的介绍可以知道,设置范围值裁剪可能会改变梯度向量的方向。例如,阈值为 1.0,原梯度向量为[0.8, 89.0],裁剪后的梯度向量变为[0,8, 1.0],方向发生了很大的改变。而对于通过 L2 范数裁剪的两种方式,阈值为 1.0,则裁剪后的梯度向量为[0.00899, 0.99996],能够保证原梯度向量的方向,但是由于分量 2 的值较大,导致分量 1 的值变得接近 0。在实际的训练过程中,如果遇到梯度爆炸情况,可以试着用不同的裁剪方式对比在验证集上的效果。

Expand Down