Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

Paddle 文档修复 test=document_fix #5211

Merged
merged 31 commits into from
Oct 8, 2022
Merged
Show file tree
Hide file tree
Changes from all commits
Commits
Show all changes
31 commits
Select commit Hold shift + click to select a range
293c4d2
Paddle 文档修复 test=document_fix
mrcangye Aug 27, 2022
b3866be
fix some bug and test test=document_fix
mrcangye Aug 27, 2022
d7b5df5
fix some docs
mrcangye Sep 1, 2022
5ccbcf4
Merge branch 'develop' into develop
mrcangye Sep 1, 2022
c8f1fd5
Update Sigmoid_cn.rst
SigureMo Sep 2, 2022
75bc3fd
Create Silu_cn.rst
SigureMo Sep 2, 2022
c119f7c
revert shape related changes
SigureMo Sep 2, 2022
fcb04e2
Update SmoothL1Loss_cn.rst
SigureMo Sep 2, 2022
14ef39d
Update SmoothL1Loss_cn.rst
SigureMo Sep 2, 2022
c99edcc
Update Softmax_cn.rst
SigureMo Sep 2, 2022
1071236
Update Softplus_cn.rst
SigureMo Sep 2, 2022
f21bdf7
Update sigmoid_cn.rst
SigureMo Sep 2, 2022
f934d86
Update silu_cn.rst
SigureMo Sep 2, 2022
6433edf
Update smooth_l1_loss_cn.rst
SigureMo Sep 2, 2022
aa67df3
Update softmax_cn.rst
SigureMo Sep 2, 2022
3316a0b
Update softplus_cn.rst
SigureMo Sep 2, 2022
18219d6
\mathrm{e} in Sigmoid_cn.rst
SigureMo Sep 3, 2022
d6cf261
\mathrm{e} in Silu_cn.rst
SigureMo Sep 3, 2022
948c421
\mathrm{e} in sigmoid_cn.rst
SigureMo Sep 3, 2022
bca4e9d
\mathrm{e} in Softmax_cn.rst
SigureMo Sep 3, 2022
3973f7c
\mathrm{e} in silu_cn.rst
SigureMo Sep 3, 2022
3957b9f
adjust format in Silu_cn.rst
SigureMo Sep 3, 2022
e199a67
:math:`k \geqslant 1` in SmoothL1Loss_cn.rst
SigureMo Sep 3, 2022
b6619ad
:math:`k \geqslant 1` in smooth_l1_loss_cn.rst
SigureMo Sep 3, 2022
a8638f5
Merge branch 'develop' into pr/mrcangye/5211
SigureMo Sep 24, 2022
8cf8d36
beta -> \beta in softplus
SigureMo Sep 24, 2022
8c2e7d6
threshold -> \varepsilon in softplus
SigureMo Sep 24, 2022
55006ad
delta -> \delta in smooth_l1_loss
SigureMo Sep 24, 2022
bfd82c0
Merge branch 'PaddlePaddle:develop' into develop
mrcangye Sep 26, 2022
981ca88
Merge branch 'PaddlePaddle:develop' into develop
mrcangye Oct 5, 2022
86634a6
test=document_fix
mrcangye Oct 5, 2022
File filter

Filter by extension

Filter by extension

Conversations
Failed to load comments.
Loading
Jump to
Jump to file
Failed to load files.
Loading
Diff view
Diff view
11 changes: 7 additions & 4 deletions docs/api/paddle/nn/Sigmoid_cn.rst
Original file line number Diff line number Diff line change
Expand Up @@ -5,23 +5,26 @@ Sigmoid

.. py:class:: paddle.nn.Sigmoid(name=None)

创建一个 ``Sigmoid`` 的可调用类。这个类可以计算输入 `x` 经过激活函数 `sigmoid` 之后的值。
用于创建一个 ``Sigmoid`` 的可调用类。这个类可以计算输入 :attr:`x` 经过激活函数 ``sigmoid`` 之后的值。

.. math::

output = \frac{1}{1 + e^{-x}}
sigmoid(x) = \frac{1}{1 + \mathrm{e}^{-x}}

参数
::::::::

- **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name`,一般无需设置,默认值为 None。

形状
::::::::
- **x** (Tensor)- N-D tensor,可以支持的数据类型是 float16,float32,float64。

- **x** (Tensor) - N-D Tensor,支持的数据类型是 float16、float32 和 float64。

返回
::::::::
返回计算 ``Sigmoid`` 的可调用对象。

返回计算 ``Sigmoid`` 的可调用对象。


代码示例
Expand Down
6 changes: 4 additions & 2 deletions docs/api/paddle/nn/Silu_cn.rst
Original file line number Diff line number Diff line change
Expand Up @@ -8,16 +8,18 @@ Silu 激活层。计算公式如下:

.. math::

Silu(x) = \frac{x}{1 + e^{-x}}
silu(x) = \frac{x}{1 + \mathrm{e}^{-x}}
Ligoml marked this conversation as resolved.
Show resolved Hide resolved

其中:math:`x` 为输入的 Tensor
其中 :math:`x` 为输入的 Tensor

参数
::::::::::

- **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name`,一般无需设置,默认值为 None。

形状:
::::::::::

- input:任意形状的 Tensor。
- output:和 input 具有相同形状的 Tensor。

Expand Down
28 changes: 14 additions & 14 deletions docs/api/paddle/nn/SmoothL1Loss_cn.rst
Original file line number Diff line number Diff line change
Expand Up @@ -5,36 +5,36 @@ SmoothL1Loss

.. py:class:: paddle.nn.SmoothL1Loss(reduction='mean', delta=1.0, name=None)

该 OP 计算输入 input 和标签 label 间的 SmoothL1 损失,如果逐个元素的绝对误差低于 1,则创建使用平方项的条件
,否则为 L1 损失。在某些情况下,它可以防止爆炸梯度,也称为 Huber 损失,该损失函数的数学计算公式如下:
计算输入 :attr:`input` 和标签 :attr:`label` 间的 SmoothL1 损失,如果逐个元素的绝对误差低于 1,则创建使用平方项的条件,否则为 L1 损失。在某些情况下,它可以防止爆炸梯度,也称为 Huber 损失,该损失函数的数学计算公式如下:

.. math::
loss(x,y) = \frac{1}{n}\sum_{i}z_i
.. math::
loss(x, y) = \frac{1}{n}\sum_{i}z_i

`z_i`的计算公式如下:
:math:`z_i` 的计算公式如下:

.. math::
.. math::

SigureMo marked this conversation as resolved.
Show resolved Hide resolved
\mathop{z_i} = \left\{\begin{array}{rcl}
0.5(x_i - y_i)^2 & & {if |x_i - y_i| < delta} \\
delta * |x_i - y_i| - 0.5 * delta^2 & & {otherwise}
\mathop{z_i} = \left\{\begin{array}{rcl}
0.5(x_i - y_i)^2 & & {if |x_i - y_i| < \delta} \\
\delta * |x_i - y_i| - 0.5 * \delta^2 & & {otherwise}
\end{array} \right.

参数
::::::::::
- **reduction** (string,可选): - 指定应用于输出结果的计算方式,数据类型为 string,可选值有:`none`, `mean`, `sum`。默认为 `mean`,计算 `mini-batch` loss 均值。设置为 `sum` 时,计算 `mini-batch` loss 的总和。设置为 `none` 时,则返回 loss Tensor。
- **delta** (string,可选): SmoothL1Loss 损失的阈值参数,用于控制 Huber 损失对线性误差或平方误差的侧重。数据类型为 float32。默认值= 1.0。

- **reduction** (str,可选) - 指定应用于输出结果的计算方式,可选值有 ``none``、``mean`` 和 ``sum``。默认为 ``mean``,计算 ``mini-batch`` loss 均值。设置为 `sum` 时,计算 `mini-batch` loss 的总和。设置为 ``none`` 时,则返回 loss Tensor。
- **delta** (str,可选) - SmoothL1Loss 损失的阈值参数 :math:`\delta`,用于控制 Huber 损失对线性误差或平方误差的侧重。数据类型为 float32。默认值为 :math:`1.0`。
- **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name`,一般无需设置,默认值为 None。

输入
::::::::::
- **input** (Tensor):输入 `Tensor`,数据类型为 float32。其形状为 :math:`[N, C]`,其中 `C` 为类别数。对于多维度的情形下,它的形状为 :math:`[N, C, d_1, d_2, ..., d_k]`,k >= 1。
- **label** (Tensor):输入 input 对应的标签值,数据类型为 float32。数据类型和 input 相同。


- **input** (Tensor):输入 `Tensor`,数据类型为 float32。其形状为 :math:`[N, C]`,其中 :math:`C` 为类别数。对于多维度的情形下,它的形状为 :math:`[N, C, d_1, d_2, ..., d_k]`,:math:`k \geqslant 1`。
- **label** (Tensor):输入 :attr:`input` 对应的标签值,数据类型和 :attr:`input` 相同。

返回
:::::::::

Tensor,计算 `SmoothL1Loss` 后的损失值。


Expand Down
16 changes: 8 additions & 8 deletions docs/api/paddle/nn/Softmax_cn.rst
Original file line number Diff line number Diff line change
Expand Up @@ -4,25 +4,25 @@ Softmax
-------------------------------
.. py:class:: paddle.nn.Softmax(axis=-1, name=None)
SigureMo marked this conversation as resolved.
Show resolved Hide resolved

Softmax 激活层,OP 的计算过程如下
Softmax 激活层,计算过程如下

步骤 1:输入 ``x````axis`` 维会被置换到最后一维;
步骤 1:输入 :attr:`x`:attr:`axis` 维会被置换到最后一维;

步骤 2:将输入 ``x`` 在逻辑上变换为二维矩阵。二维矩阵第一维(列长度)是输入除最后一维之外的其他维度值的乘积,第二维(行长度)和输入 ``axis`` 维的长度相同;对于矩阵的每一行,softmax 操作对其进行重新缩放,使得该行的每个元素在 \[0,1\] 范围内,并且总和为 1;
步骤 2:将输入 :attr:`x` 在逻辑上变换为二维矩阵。二维矩阵第一维(列长度)是输入除最后一维之外的其他维度值的乘积,第二维(行长度)和输入 :attr:`axis` 维的长度相同;对于矩阵的每一行,softmax 操作对其进行重新缩放,使得该行的每个元素在 :math:`[0, 1]` 范围内,并且总和为 1;

步骤 3:softmax 操作执行完成后,执行步骤 1 和步骤 2 的逆运算,将二维矩阵恢复至和输入 ``x`` 相同的维度。
步骤 3:softmax 操作执行完成后,执行步骤 1 和步骤 2 的逆运算,将二维矩阵恢复至和输入 :attr:`x` 相同的维度。

上述步骤 2 中 softmax 操作计算过程如下:

- 对于二维矩阵的每一行,计算 K 维向量(K 是输入第 ``axis`` 维的长度)中指定位置的指数值和全部位置指数值的和。
- 对于二维矩阵的每一行,计算 K 维向量(K 是输入第 :attr:`axis` 维的长度)中指定位置的指数值和全部位置指数值的和。

- 指定位置指数值与全部位置指数值之和的比值就是 softmax 操作的输出。

对于二维矩阵中的第 i 行和第 j 列有:
对于二维矩阵中的第 :math:`i` 行和第 :math:`j` 列有:

.. math::

Softmax[i, j] = \frac{\exp(x[i, j])}{\sum_j(exp(x[i, j])}
softmax[i, j] = \frac{\exp(x[i, j])}{\sum_j(exp(x[i, j])}

- 示例 1(矩阵一共有三维。axis = -1,表示沿着最后一维(即第三维)做 softmax 操作)

SigureMo marked this conversation as resolved.
Show resolved Hide resolved
Expand Down Expand Up @@ -82,7 +82,7 @@ Softmax 激活层,OP 的计算过程如下:

参数
::::::::::
- **axis** (int,可选) - 指定对输入 Tensor 进行运算的轴。``axis`` 的有效范围是[-D, D),D 是输入 Tensor 的维度,``axis`` 为负值时与 :math:`axis + D` 等价。默认值为-1。
- **axis** (int,可选) - 指定对输入 Tensor 进行运算的轴。:attr:`axis` 的有效范围是 :math:`[-D, D)`,:math:`D` 是输入 Tensor 的维度,``axis`` 为负值时与 :math:`axis + D` 等价。默认值为 -1。
- **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name`,一般无需设置,默认值为 None。

形状:
Expand Down
13 changes: 8 additions & 5 deletions docs/api/paddle/nn/Softplus_cn.rst
Original file line number Diff line number Diff line change
Expand Up @@ -7,20 +7,23 @@ Softplus
Softplus 激活层
SigureMo marked this conversation as resolved.
Show resolved Hide resolved

.. math::

Softplus(x) = \frac{1}{beta} * \log(1 + e^{beta * x}) \\
\text{为了保证数值稳定性,当}\,beta * x > threshold\,\text{时,函数转变为线性函数 x}。
softplus(x)=\begin{cases}
\frac{1}{\beta} * \log(1 + e^{\beta * x}),&x\leqslant\frac{\varepsilon}{\beta};\\
x,&x>\frac{\varepsilon}{\beta}.
\end{cases}

其中,:math:`x` 为输入的 Tensor
SigureMo marked this conversation as resolved.
Show resolved Hide resolved

参数
::::::::::
- **beta** (float,可选) - Softplus 激活计算公式中的 beta 值。默认值为 1。
- **threshold** (float,可选) - Softplus 激活计算公式中的 threshold 值。默认值为 20。

- **beta** (float,可选) - Softplus 激活计算公式中的 :math:`\beta` 值。默认值为 1。
- **threshold** (float,可选) - Softplus 激活计算公式中的 :math:`\varepsilon` 值。默认值为 20。
- **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name`,一般无需设置,默认值为 None。

形状:
::::::::::

- input:任意形状的 Tensor。
- output:和 input 具有相同形状的 Tensor。

Expand Down
8 changes: 4 additions & 4 deletions docs/api/paddle/nn/functional/sigmoid_cn.rst
Original file line number Diff line number Diff line change
Expand Up @@ -7,21 +7,21 @@ sigmoid




sigmoid 激活函数

.. math::
out = \frac{1}{1 + e^{-x}}
sigmoid(x) = \frac{1}{1 + \mathrm{e}^{-x}}


参数
SigureMo marked this conversation as resolved.
Show resolved Hide resolved
:::::::::

- **x** Tensor - 数据类型为 float32float64。激活函数的输入值。
- **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name`,一般无需设置,默认值为 None。默认:None
- **x** (Tensor) - 数据类型为 float32float64。激活函数的输入值。
- **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name`,一般无需设置,默认值为 None。

返回
:::::::::

Tensor,激活函数的输出值,数据类型为 float32。

代码示例
Expand Down
8 changes: 5 additions & 3 deletions docs/api/paddle/nn/functional/silu_cn.rst
Original file line number Diff line number Diff line change
Expand Up @@ -9,18 +9,20 @@ silu 激活层。计算公式如下:

.. math::

Silu(x) = \frac{x}{1 + e^{-x}}
silu(x) = \frac{x}{1 + \mathrm{e}^{-x}}

其中,:math:`x` 为输入的 Tensor

SigureMo marked this conversation as resolved.
Show resolved Hide resolved
参数
::::::::::
- **x** (Tensor) - 输入的 ``Tensor``,数据类型为:float32、float64。

- **x** (Tensor) - 输入的 ``Tensor``,数据类型为 float32 或 float64。
- **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name`,一般无需设置,默认值为 None。

返回
::::::::::
``Tensor``,数据类型和形状同 ``x`` 一致。

``Tensor``,数据类型和形状同 :attr:`x` 一致。

代码示例
::::::::::
Expand Down
24 changes: 13 additions & 11 deletions docs/api/paddle/nn/functional/smooth_l1_loss_cn.rst
Original file line number Diff line number Diff line change
Expand Up @@ -8,30 +8,32 @@ smooth_l1_loss
计算输入 input 和标签 label 间的 SmoothL1 损失,如果逐个元素的绝对误差低于 1,则创建使用平方项的条件,
否则为 L1 损失。在某些情况下,它可以防止爆炸梯度,也称为 Huber 损失,该损失函数的数学计算公式如下:

.. math::
loss(x,y) = \frac{1}{n}\sum_{i}z_i
.. math::
loss(x,y) = \frac{1}{n}\sum_{i}z_i

`z_i`的计算公式如下:
:math:`z_i` 的计算公式如下:

.. math::
.. math::

\mathop{z_i} = \left\{\begin{array}{rcl}
0.5(x_i - y_i)^2 & & {if |x_i - y_i| < delta} \\
delta * |x_i - y_i| - 0.5 * delta^2 & & {otherwise}
\mathop{z_i} = \left\{\begin{array}{rcl}
0.5(x_i - y_i)^2 & & {if |x_i - y_i| < \delta} \\
\delta * |x_i - y_i| - 0.5 * \delta^2 & & {otherwise}
\end{array} \right.

参数
::::::::::
- **input** (Tensor) - 输入 `Tensor`,数据类型为 float32。其形状为 :math:`[N, C]`,其中 `C` 为类别数。对于多维度的情形下,它的形状为 :math:`[N, C, d_1, d_2, ..., d_k]`,k >= 1。
- **label** (Tensor) - 输入 input 对应的标签值,数据类型为 float32。数据类型和 input 相同。
- **reduction** (string,可选) - 指定应用于输出结果的计算方式,数据类型为 string,可选值有:`none`, `mean`, `sum`。默认为 `mean`,计算`mini-batch` loss 均值。设置为 `sum` 时,计算 `mini-batch` loss 的总和。设置为 `none` 时,则返回 loss Tensor。
- **delta** (string,可选) - SmoothL1Loss 损失的阈值参数,用于控制 Huber 损失对线性误差或平方误差的侧重。数据类型为 float32。默认值= 1.0。

- **input** (Tensor) - 输入 `Tensor`,数据类型为 float32。其形状为 :math:`[N, C]`,其中 :math:`C` 为类别数。对于多维度的情形下,它的形状为 :math:`[N, C, d_1, d_2, ..., d_k]`,:math:`k \geqslant 1`。
- **label** (Tensor) - 输入 :attr:`input` 对应的标签值,数据类型和 :attr:`input` 相同。
- **reduction** (str,可选) - 指定应用于输出结果的计算方式,数据类型为 string,可选值有 ``none``、``mean``、``sum``。默认为 ``mean``,计算 ``mini-batch`` loss 均值。设置为 ``sum`` 时,计算 ``mini-batch`` loss 的总和。设置为 ``none`` 时,则返回 loss Tensor。
- **delta** (str,可选) - SmoothL1Loss 损失的阈值参数 :math:`\delta`,用于控制 Huber 损失对线性误差或平方误差的侧重。数据类型为 float32。默认值为 1.0。
- **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name`,一般无需设置,默认值为 None。



返回
:::::::::

Tensor,返回计算 `smooth_l1_loss` 后的损失值。


Expand Down
21 changes: 11 additions & 10 deletions docs/api/paddle/nn/functional/softmax_cn.rst
Original file line number Diff line number Diff line change
Expand Up @@ -4,22 +4,21 @@ softmax
-------------------------------
.. py:function:: paddle.nn.functional.softmax(x, axis=-1, dtype=None, name=None)
SigureMo marked this conversation as resolved.
Show resolved Hide resolved

实现 softmax 层。计算过程如下:

实现了 softmax 层。OP 的计算过程如下:
步骤 1:输入 :attr:`x` 的 :attr:`axis` 维会被置换到最后一维;

SigureMo marked this conversation as resolved.
Show resolved Hide resolved
步骤 1:输入 ``x`` 的 ``axis`` 维会被置换到最后一维
步骤 2:将输入 :attr:`x` 在逻辑上变换为二维矩阵。二维矩阵第一维(列长度)是输入除最后一维之外的其他维度值的乘积,第二维(行长度)和输入 ``axis`` 维的长度相同;对于矩阵的每一行,softmax 操作对其进行重新缩放,使得该行的每个元素在 :math:`[0, 1]` 范围内,并且总和为 :math:`1`

步骤 2:将输入 ``x`` 在逻辑上变换为二维矩阵。二维矩阵第一维(列长度)是输入除最后一维之外的其他维度值的乘积,第二维(行长度)和输入 ``axis`` 维的长度相同;对于矩阵的每一行,softmax 操作对其进行重新缩放,使得该行的每个元素在 \[0,1\] 范围内,并且总和为 1;

步骤 3:softmax 操作执行完成后,执行步骤 1 和步骤 2 的逆运算,将二维矩阵恢复至和输入 ``x`` 相同的维度。
步骤 3:softmax 操作执行完成后,执行步骤 1 和步骤 2 的逆运算,将二维矩阵恢复至和输入 :attr:`x` 相同的维度。

上述步骤 2 中 softmax 操作计算过程如下:

- 对于二维矩阵的每一行,计算 K 维向量(K 是输入第 ``axis`` 维的长度)中指定位置的指数值和全部位置指数值的和。
- 对于二维矩阵的每一行,计算 K 维向量(K 是输入第 :attr:`axis` 维的长度)中指定位置的指数值和全部位置指数值的和。

- 指定位置指数值与全部位置指数值之和的比值就是 softmax 操作的输出。

对于二维矩阵中的第 i 行和第 j 列有:
对于二维矩阵中的第 :math:`i` 行和第 :math:`j` 列有:

.. math::

Expand Down Expand Up @@ -84,14 +83,16 @@ softmax

参数
::::::::::
- **x** (Tensor) - 输入的 ``Tensor``,数据类型为:float32、float64。
- **axis** (int,可选) - 指定对输入 ``x`` 进行运算的轴。``axis`` 的有效范围是[-D, D),D 是输入 ``x`` 的维度,``axis`` 为负值时与 :math:`axis + D` 等价。默认值为-1。

- **x** (Tensor) - 输入的 ``Tensor``,数据类型为 float32 或 float64。
- **axis** (int,可选) - 指定对输入 :attr:`x` 进行运算的轴。:attr:`axis` 的有效范围是 :math:`[-D, D)`,:math:`D` 是输入 :attr:`x` 的维度,:attr:`axis` 为负值时与 :math:`axis + D` 等价。默认值为 -1。
- **dtype** (str,可选) - 输出 `Tensor` 的数据类型,支持 float32、float64。
- **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name`,一般无需设置,默认值为 None。

返回
::::::::::
``Tensor``,形状和 ``x`` 相同,数据类型为 ``dtype`` 或者和 ``x`` 相同。

``Tensor``,形状和 :attr:`x` 相同,数据类型为 :attr:`dtype` 或者和 :attr:`x` 相同。

代码示例
::::::::::
Expand Down
16 changes: 9 additions & 7 deletions docs/api/paddle/nn/functional/softplus_cn.rst
Original file line number Diff line number Diff line change
Expand Up @@ -8,23 +8,25 @@ softplus
softplus 激活层
SigureMo marked this conversation as resolved.
Show resolved Hide resolved

.. math::

softplus(x) = \frac{1}{beta} * \log(1 + e^{beta * x}) \\
\text{为了保证数值稳定性,当}\,beta * x > threshold\,\text{时,函数转变为线性函数 x}。
softplus(x)=\begin{cases}
\frac{1}{\beta} * \log(1 + e^{\beta * x}),&x\leqslant\frac{\varepsilon}{\beta};\\
x,&x>\frac{\varepsilon}{\beta}.
\end{cases}

其中,:math:`x` 为输入的 Tensor

参数
::::::::::::

- **x** (Tensor) - 输入的 ``Tensor``,数据类型为float32float64。
- **beta** (float,可选) - Softplus 激活计算公式中的 beta 值。默认值为 1。
- **threshold** (float,可选) - Softplus 激活计算公式中的 threshold 值。默认值为 20。
- **x** (Tensor) - 输入的 ``Tensor``,数据类型为 float32float64。
- **beta** (float,可选) - Softplus 激活计算公式中的 :math:`\beta` 值。默认值为 1。
- **threshold** (float,可选) - Softplus 激活计算公式中的 :math:`\varepsilon` 值。默认值为 20。
- **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name`,一般无需设置,默认值为 None。

返回
::::::::::
``Tensor``,数据类型和形状同 ``x`` 一致。

``Tensor``,数据类型和形状同 :attr:`x` 一致。

代码示例
::::::::::
Expand Down