准备QAT

torch.ao.quantization.prepare_qat(model, mapping=None, inplace=False)[源代码]

准备模型的副本以进行量化校准或量化的感知训练,并将其转换为量化版本。

量化配置应提前分配给各个子模块的.qconfig属性。

参数
  • model - 需要就地修改的输入模型

  • mapping - 将浮点模块映射到需要被替换的量化模块的字典。

  • inplace - 在原地执行模型转换,原始模块将会被修改

本页目录