diff --git a/docs/api/paddle/incubate/nn/FusedBiasDropoutResidualLayerNorm_cn.rst b/docs/api/paddle/incubate/nn/FusedBiasDropoutResidualLayerNorm_cn.rst new file mode 100644 index 00000000000..85d3db7aad3 --- /dev/null +++ b/docs/api/paddle/incubate/nn/FusedBiasDropoutResidualLayerNorm_cn.rst @@ -0,0 +1,37 @@ +.. _cn_api_paddle_incubate_nn_FusedBiasDropoutResidualLayerNorm: + +FusedBiasDropoutResidualLayerNorm +------------------------------- + +.. py:class:: paddle.incubate.nn.FusedBiasDropoutResidualLayerNorm(embed_dim, dropout_rate=0.5, weight_attr=None, bias_attr=None, epsilon=1e-05, name=None) + +应用 fused_bias_dropout_residual_layer_norm 操作符,包含融合偏置、Dropout 和残差层归一化操作。 + +参数 +:::::::::::: + - **embed_dim** (int) - 输入和输出中预期的特征大小。 + - **dropout_rate** (float,可选) - 在注意力权重上使用的 Dropout 概率,用于在注意力后的 Dropout 过程中丢弃一些注意力目标。0 表示无 Dropout。默认为 0.5。 + - **bias_attr** (ParamAttr|bool,可选) - 指定偏置参数的属性。默认为 None,意味着使用默认的偏置参数属性。如果设置为 False,则该层不会有可训练的偏置参数。具体用法请参见 :ref:`cn_api_paddle_ParamAttr` 。 + - **epsilon** (float,可选) - 添加到方差中的小值,以防止除零。默认为 1e-05。 + +代码示例 +:::::::::::: + +COPY-FROM: paddle.incubate.nn.FusedBiasDropoutResidualLayerNorm + +forward(x, residual) +:::::::::::: +应用 fused_bias_dropout_residual_layer_norm 操作符,包含融合偏置、Dropout 和残差层归一化操作。 + +参数 +:::::::::::: + - **x** (Tensor) - 输入张量。它是一个形状为 `[batch_size, seq_len, embed_dim]` 的张量。数据类型应为 float32 或 float64 。 + - **residual** (Tensor,可选) - 残差张量。它是一个形状为 `[batch_size, value_length, vdim]` 的张量。数据类型应为 float32 或 float64。 + +返回 +:::::::::::: +Tensor|tuple:与 `x` 具有相同数据类型和形状的张量 + +extra_repr() +:::::::::::: +当前层的额外表示,您可以自定义实现自己的层。 diff --git a/docs/api/paddle/incubate/nn/functional/fused_bias_dropout_residual_layer_norm_cn.rst b/docs/api/paddle/incubate/nn/functional/fused_bias_dropout_residual_layer_norm_cn.rst new file mode 100644 index 00000000000..1bb35db4b6c --- /dev/null +++ b/docs/api/paddle/incubate/nn/functional/fused_bias_dropout_residual_layer_norm_cn.rst @@ -0,0 +1,47 @@ +.. _cn_api_paddle_incubate_nn_functional_fused_bias_dropout_residual_layer_norm: + +fused_bias_dropout_residual_layer_norm +------------------------------- + +.. py:function:: paddle.incubate.nn.functional.fused_bias_dropout_residual_layer_norm(x, residual, bias=None, ln_scale=None, ln_bias=None, dropout_rate=0.5, ln_epsilon=1e-05, training=True, mode='upscale_in_train', name=None) + +fused_bias_dropout_residual_layer_norm 操作符,包含融合偏置、Dropout 和残差层归一化。 + +其伪代码如下: + +.. code-block:: text + + >>> y = layer_norm(residual + dropout(bias + x)) + +参数 +:::::::::::: + - **x** (Tensor) - 输入张量。其形状为 `[*, embed_dim]`。 + - **residual** (Tensor) - 残差张量。其形状与 x 相同。 + - **bias** (Tensor,可选) - 线性的偏置。其形状为 `[embed_dim]`。默认为 None。 + - **ln_scale** (Tensor,可选) - 层归一化的权重张量。其形状为 `[embed_dim]`。默认为 None。 + - **ln_bias** (Tensor,可选) - 层归一化的偏置张量。其形状为 `[embed_dim]`。默认为 None。 + - **dropout_rate** (float,可选) - 在注意力权重上使用的 Dropout 概率,用于在注意力后的 Dropout 过程中丢弃一些注意力目标。0 表示无 Dropout。默认为 0.5 。 + - **ln_epsilon** (float,可选) - 在层归一化的分母中添加的小浮点数,用于避免除以零。默认为 1e-5。 + - **training** (bool,可选) - 表示是否处于训练阶段的标志。默认为 True。 + - **mode** (str,可选) - ['upscale_in_train'(默认) | 'downscale_in_infer'],两种模式分别为: + + 1. upscale_in_train(默认),在训练时上调输出 + + - 训练:out = input * mask / (1.0 - p) + - 推理:out = input + + 2. downscale_in_infer,在推理时下调输出 + + - 训练:out = input * mask + - 推理:out = input * (1.0 - p) + - **name** (str,可选) - 操作的名称(可选,默认为 None)。具体用法请参见 :ref:`api_guide_Name`。 + +返回 +:::::::::::: + - Tensor,输出张量,数据类型和形状与 `x` 相同。 + + +代码示例 +:::::::::::: + +COPY-FROM: paddle.incubate.nn.functional.fused_bias_dropout_residual_layer_norm