ELU

torch.nn.ELU(alpha=1.0, inplace=False)[源代码]

按元素应用指数线性单元(ELU)函数。

论文中提出的方法:利用指数线性单元(ELUs)进行快速且准确的深度网络学习

ELU被定义为:

ELU(x)={x, if x>0α(exp(x)1), if x0\text{ELU}(x) = \begin{cases} x, & \text{ if } x > 0\\ \alpha * (\exp(x) - 1), & \text{ if } x \leq 0 \end{cases}
参数
  • alpha (float) – ELU公式中的α\alpha值,默认为1.0。

  • inplace (bool) – 是否以就地方式执行操作(可选)。默认值: False

形状:
  • 输入: ()(*),其中*表示任意维度的数量。

  • 输出: ()(*),形状与输入相同。

{BASE_RAW_UPLOAD_URL}/pytorch-doc-2.5/44ab96bef64fc433ab24751d5c30526e.png

示例:

>>> m = nn.ELU()
>>> input = torch.randn(2)
>>> output = m(input)
本页目录