SELU

torch.nn.SELU(inplace=False)[源代码]

按元素应用SELU函数。

$\text{SELU}(x) = \text{scale} * (\max(0,x) + \min(0, \alpha * (\exp(x) - 1)))$

其中 $\alpha = 1.6732632423543772848170429916717$$\text{scale} = 1.0507009873554804934193349852946$

警告

当使用kaiming_normalkaiming_normal_进行初始化时,应将nonlinearity设置为'linear'而不是'selu',以实现Self-Normalizing Neural Networks。更多详情请参阅torch.nn.init.calculate_gain()

更多细节可以在论文 《自归一化神经网络》 中找到。

参数

inplace (bool, 可选) – 是否选择就地执行操作。默认值: False

形状:
  • 输入: $(*)$,其中$*$表示任意维度的数量。

  • 输出: $(*)$,形状与输入相同。

{BASE_RAW_UPLOAD_URL}/pytorch-doc-2.5/4f63dbc1f0a463ef9b06d78891cb8ed5.png

示例:

>>> m = nn.SELU()
>>> input = torch.randn(2)
>>> output = m(input)
本页目录