本文簡要介紹python語言中 torch.nn.Embedding.from_pretrained
的用法。
用法:
classmethod from_pretrained(embeddings, freeze=True, padding_idx=None, max_norm=None, norm_type=2.0, scale_grad_by_freq=False, sparse=False)
embeddings(Tensor) -FloatTensor 包含嵌入的權重。第一個維度作為
num_embeddings
傳遞給嵌入,第二個維度作為embedding_dim
傳遞給嵌入。freeze(布爾值,可選的) -如果
True
,則張量在學習過程中不會更新。等效於embedding.weight.requires_grad = False
。默認值:True
padding_idx(int,可選的) -如果指定,
padding_idx
處的條目不會影響梯度;因此,padding_idx
處的嵌入向量在訓練期間不會更新,即它保持為固定的 “pad”。max_norm(float,可選的) -請參閱模塊初始化文檔。
norm_type(float,可選的) -請參閱模塊初始化文檔。默認
2
。scale_grad_by_freq(布爾值,可選的) -請參閱模塊初始化文檔。默認
False
。sparse(bool,可選的) -請參閱模塊初始化文檔。
從給定的二維 FloatTensor 創建 Embedding 實例。
例子:
>>> # FloatTensor containing pretrained weights >>> weight = torch.FloatTensor([[1, 2.3, 3], [4, 5.1, 6.3]]) >>> embedding = nn.Embedding.from_pretrained(weight) >>> # Get embeddings for index 1 >>> input = torch.LongTensor([1]) >>> embedding(input) tensor([[ 4.0000, 5.1000, 6.3000]])
參數:
相關用法
- Python PyTorch EmbeddingBag用法及代碼示例
- Python PyTorch EmbeddingBagCollection.state_dict用法及代碼示例
- Python PyTorch Embedding用法及代碼示例
- Python PyTorch EmbeddingBag.from_pretrained用法及代碼示例
- Python PyTorch EmbeddingBagCollection用法及代碼示例
- Python PyTorch EmbeddingBagCollection.named_buffers用法及代碼示例
- Python PyTorch EmbeddingCollection用法及代碼示例
- Python PyTorch ELU用法及代碼示例
- Python PyTorch EndOnDiskCacheHolder用法及代碼示例
- Python PyTorch Enumerator用法及代碼示例
- Python PyTorch ElasticAgent用法及代碼示例
- Python PyTorch EtcdServer用法及代碼示例
- Python PyTorch EtcdRendezvousHandler用法及代碼示例
- Python PyTorch Exponential用法及代碼示例
- Python PyTorch frexp用法及代碼示例
- Python PyTorch jvp用法及代碼示例
- Python PyTorch cholesky用法及代碼示例
- Python PyTorch vdot用法及代碼示例
- Python PyTorch ScaledDotProduct.__init__用法及代碼示例
- Python PyTorch gumbel_softmax用法及代碼示例
- Python PyTorch get_tokenizer用法及代碼示例
- Python PyTorch saved_tensors_hooks用法及代碼示例
- Python PyTorch positive用法及代碼示例
- Python PyTorch renorm用法及代碼示例
- Python PyTorch AvgPool2d用法及代碼示例
注:本文由純淨天空篩選整理自pytorch.org大神的英文原創作品 torch.nn.Embedding.from_pretrained。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。