torch.nn.functional.feature_alpha_dropout
- torch.nn.functional.feature_alpha_dropout(input, p=0.5, training=False, inplace=False)[源代码]
-
随机遮盖整个通道(一个通道是一张特征图)。
例如,批次输入中第 $i$ 个样本的第 $j$ 个通道是一个张量$\text{input}[i, j]$。与常规 Dropout 将激活值设为零不同,SELU 激活函数将激活值设置为其负饱和值。
每个元素将在每次前向调用时以概率
p
独立地使用伯努利分布进行掩码。在每次前向调用中,要被掩码的元素是随机选择的,并且会被缩放和偏移以保持零均值和单位方差。详情请参阅
FeatureAlphaDropout
。