当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python PyTorch LinearReLU用法及代码示例


本文简要介绍python语言中 torch.nn.intrinsic.quantized.LinearReLU 的用法。

用法:

class torch.nn.intrinsic.quantized.LinearReLU(in_features, out_features, bias=True, dtype=torch.qint8)

变量

as torch.nn.quantized.Linear(相同的) -

由 Linear 和 ReLU 模块融合而成的 LinearReLU 模块

我们采用与 torch.nn.quantized.Linear 相同的接口。

例子:

>>> m = nn.intrinsic.LinearReLU(20, 30)
>>> input = torch.randn(128, 20)
>>> output = m(input)
>>> print(output.size())
torch.Size([128, 30])

相关用法


注:本文由纯净天空筛选整理自pytorch.org大神的英文原创作品 torch.nn.intrinsic.quantized.LinearReLU。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。