LinearReLU
- 类torch.ao.nn.intrinsic.qat.LinearReLU(in_features, out_features, bias=True, qconfig=None)[源代码]
-
LinearReLU模块是由Linear和ReLU模块融合而成的,并配备了用于权重的FakeQuantize模块,应用于量化感知训练。
我们采用了与
torch.nn.Linear
相同的接口。类似于torch.ao.nn.intrinsic.LinearReLU,其中FakeQuantize模块被初始化为默认值。
- 变量
-
weight (torch.Tensor) – 用于权重的假量化模块
示例:
>>> m = nn.qat.LinearReLU(20, 30) >>> input = torch.randn(128, 20) >>> output = m(input) >>> print(output.size()) torch.Size([128, 30])