SiLU

torch.nn.SiLU(inplace=False)[源代码]

逐元素应用Sigmoid线性单元(SiLU)函数。

SiLU 函数又称作 swish 函数。

$\text{silu}(x) = x * \sigma(x), \text{where } \sigma(x) \text{ is the logistic sigmoid.}$

注意

参见高斯误差线性单元(GELUs),该文中首次提出了SiLU(Sigmoid 线性单元),并参考用于强化学习中神经网络函数近似的Sigmoid加权线性单元Swish:一种自门控激活函数,其中后来对SiLU进行了实验。

形状:
  • 输入: $(*)$,其中$*$表示任意维度的数量。

  • 输出: $(*)$,形状与输入相同。

{BASE_RAW_UPLOAD_URL}/pytorch-doc-2.5/836ae14bbe86a117ab0d5e26f48b6208.png

示例:

>>> m = nn.SiLU()
>>> input = torch.randn(2)
>>> output = m(input)
本页目录