当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python PyTorch quantized_batch_norm用法及代码示例


本文简要介绍python语言中 torch.quantized_batch_norm 的用法。

用法:

torch.quantized_batch_norm(input, weight=None, bias=None, mean, var, eps, output_scale, output_zero_point) → Tensor

参数

  • input(Tensor) -量化张量

  • weight(Tensor) -对应于 gamma 的浮点张量,大小 C

  • bias(Tensor) -与 beta 相对应的浮点张量,大小 C

  • mean(Tensor) -批量标准化中的浮点平均值,大小 C

  • var(Tensor) -方差的浮点数张量,大小 C

  • eps(float) -加到分母上的值,以保证数值稳定性。

  • output_scale(float) -输出量化张量尺度

  • output_zero_point(int) -输出量化张量zero_point

返回

应用了批量标准化的量化张量。

返回类型

Tensor

对 4D (NCHW) 量化张量应用批量归一化。

例子:

>>> qx = torch.quantize_per_tensor(torch.rand(2, 2, 2, 2), 1.5, 3, torch.quint8)
>>> torch.quantized_batch_norm(qx, torch.ones(2), torch.zeros(2), torch.rand(2), torch.rand(2), 0.00001, 0.2, 2)
tensor([[[[-0.2000, -0.2000],
      [ 1.6000, -0.2000]],

     [[-0.4000, -0.4000],
      [-0.4000,  0.6000]]],


    [[[-0.2000, -0.2000],
      [-0.2000, -0.2000]],

     [[ 0.6000, -0.4000],
      [ 0.6000, -0.4000]]]], size=(2, 2, 2, 2), dtype=torch.quint8,
   quantization_scheme=torch.per_tensor_affine, scale=0.2, zero_point=2)

相关用法


注:本文由纯净天空筛选整理自pytorch.org大神的英文原创作品 torch.quantized_batch_norm。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。