余弦嵌入损失函数
- 类torch.nn.CosineEmbeddingLoss(margin=0.0, size_average=None, reduce=None, reduction='mean')[源代码]
-
创建一个准则,用于根据输入张量$x_1$和$x_2$以及Tensor标签$y$(值为1或-1)来度量损失。当$y=1$时,最大化两个输入的余弦相似度;否则使用$y=-1$。这通常用于非线性嵌入学习或半监督学习。
每个样本的损失函数是:
$\text{loss}(x, y) = \begin{cases} 1 - \cos(x_1, x_2), & \text{if } y = 1 \\ \max(0, \cos(x_1, x_2) - \text{margin}), & \text{if } y = -1 \end{cases}$- 参数
-
-
margin (float, optional) – 应该是一个从$-1$到$1$的数值,建议范围是$0$到$0.5$。如果
margin
未指定,默认值为$0$。 -
size_average (bool, optional) – 已弃用(请参见
reduction
)。默认情况下,损失值会在批次中的每个损失元素上进行平均计算。需要注意的是,对于某些损失函数,每个样本包含多个损失元素。如果将字段size_average
设置为False
,则损失值会针对每个小批量求和。当reduce
为False
时,此设置会被忽略。默认值:True
-
reduce (bool, optional) – 已弃用(请参见
reduction
)。默认情况下,损失值会根据size_average
参数在每个小批量中进行平均或求和。当reduce
为False
时,返回每批元素的单独损失值,并忽略size_average
设置。默认值:True
-
reduction (str, 可选) – 指定要应用于输出的缩减方式:
'none'
|'mean'
|'sum'
。'none'
: 不进行任何缩减,'mean'
: 输出总和除以元素数量,'sum'
: 对输出求和。注意:size_average
和reduce
正在被弃用,在此期间,指定这两个参数中的任何一个将覆盖reduction
参数。默认值:'mean'
-
- 形状:
-
-
输入1: $(N, D)$ 或 $(D)$,其中 N 表示批量大小,D 表示嵌入维度。
-
输入2: $(N, D)$ 或 $(D)$,其形状与输入1相同。
-
目标: $(N)$ 或 $()$
-
输出:如果
reduction
为'none'
,则结果为 $(N)$,否则为标量。
-
示例:
>>> loss = nn.CosineEmbeddingLoss() >>> input1 = torch.randn(3, 5, requires_grad=True) >>> input2 = torch.randn(3, 5, requires_grad=True) >>> target = torch.ones(3) >>> output = loss(input1, input2, target) >>> output.backward()