torch.addmm
- torch.addmm(input, mat1, mat2, *, beta=1, alpha=1, out=None) → Tensor
-
对矩阵
mat1
和mat2
进行矩阵乘法运算,并将矩阵input
加到最终的结果中。如果
mat1
是一个 $(n \times m)$ 张量,mat2
是一个 $(m \times p)$ 张量,那么input
必须能够与一个 $(n \times p)$ 张量进行广播操作,并且out
将是一个 $(n \times p)$ 张量。alpha
和beta
分别是矩阵与向量乘积(mat1
和mat2
)以及添加的矩阵input
的缩放因子。$\text{out} = \beta\ \text{input} + \alpha\ (\text{mat1}_i \mathbin{@} \text{mat2}_i)$如果
beta
为 0,那么input
将被忽略,并且其中的 nan 和 inf 不会被传播。对于类型为FloatTensor或DoubleTensor的输入,参数
beta
和alpha
必须是实数;如果不是这些类型,则它们应该是整数。此操作支持具有稀疏布局的参数。如果
input
是稀疏的,结果也将采用相同的稀疏布局;若提供了out
参数,则其布局必须与input
一致。警告
稀疏支持是一项 beta 功能,某些布局、数据类型和设备的组合可能不被支持,或不具备自动微分功能。如果你发现了缺失的功能,请提交一个特性请求。
该操作支持TensorFloat32。
在某些ROCm设备上,当使用float16输入时,此模块会采用不同的精度进行反向传播。
- 参数
- 关键字参数
-
-
beta (数字, 可选) –
input
的乘数 ($\beta$) -
alpha (Number, optional) – 用于 $mat1 @ mat2$ 的乘数 ($\alpha$)
-
out (Tensor, 可选) – 指定输出张量。
-
示例:
>>> M = torch.randn(2, 3) >>> mat1 = torch.randn(2, 3) >>> mat2 = torch.randn(3, 3) >>> torch.addmm(M, mat1, mat2) tensor([[-4.8716, 1.4671, -1.3746], [ 0.7573, -3.9555, -2.8681]])