當前位置: 首頁>>代碼示例 >>用法及示例精選 >>正文


Python PyTorch Embedding用法及代碼示例


本文簡要介紹python語言中 torch.nn.quantized.Embedding 的用法。

用法:

class torch.nn.quantized.Embedding(num_embeddings, embedding_dim, padding_idx=None, max_norm=None, norm_type=2.0, scale_grad_by_freq=False, sparse=False, _weight=None, dtype=torch.quint8)

變量

~Embedding.weight(Tensor) -形狀為 的模塊的不可學習量化權重。

以量化打包權重作為輸入的量化嵌入模塊。我們采用與torch.nn.Embedding 相同的接口,請參閱https://pytorch.org/docs/stable/nn.html#torch.nn.Embedding 獲取文檔。

Embedding 類似,屬性將在模塊創建時隨機初始化,稍後將被覆蓋

例子::
>>> m = nn.quantized.Embedding(num_embeddings=10, embedding_dim=12)
>>> indices = torch.tensor([9, 6, 5, 7, 8, 8, 9, 2, 8])
>>> output = m(indices)
>>> print(output.size())
torch.Size([9, 12]

相關用法


注:本文由純淨天空篩選整理自pytorch.org大神的英文原創作品 torch.nn.quantized.Embedding。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。