当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python PyTorch Embedding用法及代码示例


本文简要介绍python语言中 torch.nn.quantized.Embedding 的用法。

用法:

class torch.nn.quantized.Embedding(num_embeddings, embedding_dim, padding_idx=None, max_norm=None, norm_type=2.0, scale_grad_by_freq=False, sparse=False, _weight=None, dtype=torch.quint8)

变量

~Embedding.weight(Tensor) -形状为 的模块的不可学习量化权重。

以量化打包权重作为输入的量化嵌入模块。我们采用与torch.nn.Embedding 相同的接口,请参阅https://pytorch.org/docs/stable/nn.html#torch.nn.Embedding 获取文档。

Embedding 类似,属性将在模块创建时随机初始化,稍后将被覆盖

例子::
>>> m = nn.quantized.Embedding(num_embeddings=10, embedding_dim=12)
>>> indices = torch.tensor([9, 6, 5, 7, 8, 8, 9, 2, 8])
>>> output = m(indices)
>>> print(output.size())
torch.Size([9, 12]

相关用法


注:本文由纯净天空筛选整理自pytorch.org大神的英文原创作品 torch.nn.quantized.Embedding。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。