SELU
- 类torch.nn.SELU(inplace=False)[源代码]
-
按元素应用SELU函数。
$\text{SELU}(x) = \text{scale} * (\max(0,x) + \min(0, \alpha * (\exp(x) - 1)))$其中 $\alpha = 1.6732632423543772848170429916717$ 和 $\text{scale} = 1.0507009873554804934193349852946$。
警告
当使用
kaiming_normal
或kaiming_normal_
进行初始化时,应将nonlinearity
设置为'linear'
而不是'selu'
,以实现Self-Normalizing Neural Networks。更多详情请参阅torch.nn.init.calculate_gain()
。更多细节可以在论文 《自归一化神经网络》 中找到。
- 参数
-
inplace (bool, 可选) – 是否选择就地执行操作。默认值:
False
- 形状:
-
-
输入: $(*)$,其中$*$表示任意维度的数量。
-
输出: $(*)$,形状与输入相同。
-
示例:
>>> m = nn.SELU() >>> input = torch.randn(2) >>> output = m(input)