LnStructured
- 类torch.nn.utils.prune.LnStructured(amount, n, dim=-1)[源代码]
-
根据张量通道的 L
n
-范数来修剪整个通道(目前尚未被修剪)。- 参数
- classmethodapply(module, name, amount, n, dim, importance_scores=None)[源代码]
-
添加动态剪枝功能,并对张量进行重新参数化。
添加一个前向预处理钩子,在运行时启用剪枝功能,并根据原始张量和剪枝掩码来重新参数化张量。
- 参数
-
-
module (nn.Module) – 包含待修剪张量的模块
-
name (str) – 进行剪枝操作的
模块
中的参数名称。 -
amount (int 或 float) – 参数的修剪数量。如果为
float
类型,应在0.0到1.0之间,并表示要修剪的参数比例。如果是int
类型,则表示要绝对修剪的具体参数数量。 -
n (int, float, inf, -inf, 'fro', 'nuc') – 有关
p
参数在torch.norm()
中的有效输入,请参阅文档。 -
dim (int) – 表示要裁剪通道的维度的索引。
-
importance_scores (torch.Tensor) – 重要性分数张量(与要修剪的模块参数形状相同),用于计算剪枝掩码。该张量中的值表示待修剪参数中对应元素的重要性。如果未指定或为 None,则使用模块参数作为替代。
-
- apply_mask(模块)
-
简单地处理参数和生成的掩码之间的乘法运算。
从模块中获取掩码和原始张量,并返回裁剪后的张量。
- 参数
-
module (nn.Module) – 包含待修剪张量的模块
- 返回值
-
输入张量的简化版
- 返回类型
-
pruned_tensor (torch.Tensor)
- compute_mask(t, default_mask)[源代码]
-
计算并返回输入张量
t
的掩码。从基础的
default_mask
开始(如果张量尚未被剪枝,则应为全1的掩码),生成一个新的掩码并叠加在default_mask
上,通过将指定维度上具有最低 Ln
-范数的通道置零来实现。- 参数
-
-
t (torch.Tensor) – 表示待修剪参数的张量
-
default_mask (torch.Tensor) – 来自之前剪枝迭代的基础掩码,在应用新掩码后仍需遵守。与
t
具有相同的维度。
-
- 返回值
-
与
t
具有相同维度的掩码,用于t
- 返回类型
-
掩码 (torch.Tensor)
- 异常
-
IndexError – 如果
self.dim >= len(t.shape)
- prune(t, default_mask=None, importance_scores=None)
-
计算并返回输入张量
t
的简化版本。根据
compute_mask()
中规定的剪枝规则。- 参数
-
-
t (torch.Tensor) – 需要进行剪枝操作的张量(与
default_mask
具有相同的维度)。 -
importance_scores (torch.Tensor) – 重要性分数张量(与
t
形状相同),用于计算要修剪的t
的掩码。该张量中的值表示正在被修剪的t
中对应元素的重要性。如果未指定或为 None,则使用t
本身。 -
default_mask (torch.Tensor, 可选) – 上一次剪枝迭代的掩码(如果有)。在确定剪枝应作用于张量的哪一部分时,需要考虑这个掩码。如果为 None,则默认使用全1掩码。
-
- 返回值
-
张量
t
的简化版本。
- remove(module)
-
从模块中删除剪枝重参数化。
名为
name
的剪枝参数将永久保持被剪枝状态,而名为name+'_orig'
的参数将从参数列表中删除。同样地,名为name+'_mask'
的缓冲区也将从缓冲区列表中移除。注意
剪枝操作本身无法撤销或逆转!