软 plus 函数
- classtorch.nn.Softplus(beta=1.0, threshold=20.0)[源代码]
-
对每个元素应用Softplus函数。
$\text{Softplus}(x) = \frac{1}{\beta} * \log(1 + \exp(\beta * x))$SoftPlus 是 ReLU 函数的一种平滑近似,可用于确保机器的输出始终为正。
为了保证数值稳定性,当$input \times \beta > threshold$时,实现会退回到线性函数。
- 形状:
-
-
输入: $(*)$,其中$*$表示任意维度的数量。
-
输出: $(*)$,形状与输入相同。
-
示例:
>>> m = nn.Softplus() >>> input = torch.randn(2) >>> output = m(input)