嵌入

torch.ao.nn.quantized.Embedding(num_embeddings, embedding_dim, padding_idx=None, max_norm=None, norm_type=2.0, scale_grad_by_freq=False, sparse=False, _weight=None, dtype=torch.quint8)[源代码]

这是一个使用量化打包权重作为输入的量化 Embedding 模块。我们采用了与 torch.nn.Embedding 相同的接口,请参阅 文档 获取更多信息。

类似于Embedding,属性将在模块创建时被随机初始化,并会在之后被覆盖。

变量

weight (Tensor) – 模块的非可学习量化权重,形状为$(\text{num\_embeddings}, \text{embedding\_dim})$

示例:
>>> m = nn.quantized.Embedding(num_embeddings=10, embedding_dim=12)
>>> indices = torch.tensor([9, 6, 5, 7, 8, 8, 9, 2, 8])
>>> output = m(indices)
>>> print(output.size())
torch.Size([9, 12])
classmethodfrom_float(mod, use_precomputed_fake_quant=False)[源代码]

将浮点模块转换为量化嵌入模块

参数

mod (Module) – 一个浮点类型的模块,该模块可以是由 torch.ao.quantization 工具生成的,也可以是由用户提供的。

本页目录