當前位置: 首頁>>代碼示例 >>用法及示例精選 >>正文


Python PyTorch LinearReLU用法及代碼示例


本文簡要介紹python語言中 torch.nn.intrinsic.quantized.LinearReLU 的用法。

用法:

class torch.nn.intrinsic.quantized.LinearReLU(in_features, out_features, bias=True, dtype=torch.qint8)

變量

as torch.nn.quantized.Linear(相同的) -

由 Linear 和 ReLU 模塊融合而成的 LinearReLU 模塊

我們采用與 torch.nn.quantized.Linear 相同的接口。

例子:

>>> m = nn.intrinsic.LinearReLU(20, 30)
>>> input = torch.randn(128, 20)
>>> output = m(input)
>>> print(output.size())
torch.Size([128, 30])

相關用法


注:本文由純淨天空篩選整理自pytorch.org大神的英文原創作品 torch.nn.intrinsic.quantized.LinearReLU。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。