Dropout

class paddle.fluid.dygraph. Dropout ( p=0.5, seed=None, dropout_implementation='downgrade_in_infer', is_test=False ) [源代码]

丢弃或者保持输入的每个元素独立。Dropout是一种正则化手段,通过在训练过程中阻止神经元节点间的相关性来减少过拟合。根据给定的丢弃概率,dropout操作符按丢弃概率随机将一些神经元输出设置为0,其他的仍保持不变。

Dropout层可以删除,提高执行效率。

参数

  • p (float32,可选) - 输入单元的丢弃概率,即输入单元设置为0的概率。默认值:0.5

  • seed (int,可选) - 整型数据,用于创建随机种子。如果该参数设为None,则使用随机种子。注:如果给定一个整型种子,始终丢弃相同的输出单元。训练过程中勿用固定不变的种子。默认值:None。

  • dropout_implementation (str,可选) - 丢弃单元的方式,有两种'downgrade_in_infer'和'upscale_in_train'两种选择,默认:'downgrade_in_infer'。具体作用可以参考一下描述。

    1. downgrade_in_infer(default),在预测时减小输出结果

      • train: out = input * mask

      • inference: out = input * (1.0 - p)

      (mask是一个张量,维度和输入维度相同,值为0或1,值为0的比例即为 p )

    2. upscale_in_train,增加训练时的结果

      • train: out = input * mask / ( 1.0 - p )

      • inference: out = input

      (mask是一个张量,维度和输入维度相同,值为0或1,值为0的比例即为 p

  • is_test (bool,可选) - 标记是否是测试阶段。此标志仅对静态图模式有效。对于动态图模式,请使用 eval() 接口。默认:False。

返回

代码示例

import paddle.fluid as fluid
from paddle.fluid.dygraph.base import to_variable
import numpy as np

x = np.random.random(size=(3, 10, 3, 7)).astype('float32')
with fluid.dygraph.guard():
    x = to_variable(x)
    m = fluid.dygraph.Dropout(p=0.5)
    droped_train = m(x)
    # switch to eval mode
    m.eval()
    droped_eval = m(x)