當前位置: 首頁>>編程示例 >>用法及示例精選 >>正文


Python PyTorch LinearReLU用法及代碼示例

本文簡要介紹python語言中 torch.nn.intrinsic.qat.LinearReLU 的用法。

用法:

class torch.nn.intrinsic.qat.LinearReLU(in_features, out_features, bias=True, qconfig=None)

變量

~LinearReLU.weight(torch.Tensor) -重量的假量化模塊

由 Linear 和 ReLU 模塊融合而成的 LinearReLU 模塊,附加 FakeQuantize 權重模塊,用於量化感知訓練。

我們采用與 torch.nn.Linear 相同的接口。

torch.nn.intrinsic.LinearReLU 類似,FakeQuantize 模塊初始化為默認值。

例子:

>>> m = nn.qat.LinearReLU(20, 30)
>>> input = torch.randn(128, 20)
>>> output = m(input)
>>> print(output.size())
torch.Size([128, 30])

相關用法


注:本文由純淨天空篩選整理自pytorch.org大神的英文原創作品 torch.nn.intrinsic.qat.LinearReLU。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。