_dropout_

改为更自然的表达:

辍学

classtorch.nn.Dropout(p=0.5, inplace=False)[源代码]

在训练过程中,以概率 p 随机将输入张量的某些元素置零。

零元素在每次前向调用时独立选择,并从中抽取自伯努利分布。

每个频道在每次向前调用时都会独立清零。

这种方法已被证明是一种有效的正则化技术,可以防止神经元的共适应现象,正如论文通过防止特征检测器的共适应来改进神经网络 中所述。

此外,在训练过程中,输出会被放大一个因子 11p\frac{1}{1-p}。这意味著在进行评估时,该模块只会执行恒等变换。

参数
  • p (float) – 控制元素被置为零的概率。默认值:0.5

  • inplace (bool) – 如果设置为True,将以原地方式执行此操作。默认值: False

形状:
  • 输入: ()(*)。输入可以是任意形状。

  • 输出: ()(*)。输出的形状与输入相同

示例:

>>> m = nn.Dropout(p=0.2)
>>> input = torch.randn(20, 16)
>>> output = m(input)
本页目录