本文简要介绍python语言中 torch.nn.Embedding.from_pretrained
的用法。
用法:
classmethod from_pretrained(embeddings, freeze=True, padding_idx=None, max_norm=None, norm_type=2.0, scale_grad_by_freq=False, sparse=False)
embeddings(Tensor) -FloatTensor 包含嵌入的权重。第一个维度作为
num_embeddings
传递给嵌入,第二个维度作为embedding_dim
传递给嵌入。freeze(布尔值,可选的) -如果
True
,则张量在学习过程中不会更新。等效于embedding.weight.requires_grad = False
。默认值:True
padding_idx(int,可选的) -如果指定,
padding_idx
处的条目不会影响梯度;因此,padding_idx
处的嵌入向量在训练期间不会更新,即它保持为固定的 “pad”。max_norm(float,可选的) -请参阅模块初始化文档。
norm_type(float,可选的) -请参阅模块初始化文档。默认
2
。scale_grad_by_freq(布尔值,可选的) -请参阅模块初始化文档。默认
False
。sparse(bool,可选的) -请参阅模块初始化文档。
从给定的二维 FloatTensor 创建 Embedding 实例。
例子:
>>> # FloatTensor containing pretrained weights >>> weight = torch.FloatTensor([[1, 2.3, 3], [4, 5.1, 6.3]]) >>> embedding = nn.Embedding.from_pretrained(weight) >>> # Get embeddings for index 1 >>> input = torch.LongTensor([1]) >>> embedding(input) tensor([[ 4.0000, 5.1000, 6.3000]])
参数:
相关用法
- Python PyTorch EmbeddingBag用法及代码示例
- Python PyTorch EmbeddingBagCollection.state_dict用法及代码示例
- Python PyTorch Embedding用法及代码示例
- Python PyTorch EmbeddingBag.from_pretrained用法及代码示例
- Python PyTorch EmbeddingBagCollection用法及代码示例
- Python PyTorch EmbeddingBagCollection.named_buffers用法及代码示例
- Python PyTorch EmbeddingCollection用法及代码示例
- Python PyTorch ELU用法及代码示例
- Python PyTorch EndOnDiskCacheHolder用法及代码示例
- Python PyTorch Enumerator用法及代码示例
- Python PyTorch ElasticAgent用法及代码示例
- Python PyTorch EtcdServer用法及代码示例
- Python PyTorch EtcdRendezvousHandler用法及代码示例
- Python PyTorch Exponential用法及代码示例
- Python PyTorch frexp用法及代码示例
- Python PyTorch jvp用法及代码示例
- Python PyTorch cholesky用法及代码示例
- Python PyTorch vdot用法及代码示例
- Python PyTorch ScaledDotProduct.__init__用法及代码示例
- Python PyTorch gumbel_softmax用法及代码示例
- Python PyTorch get_tokenizer用法及代码示例
- Python PyTorch saved_tensors_hooks用法及代码示例
- Python PyTorch positive用法及代码示例
- Python PyTorch renorm用法及代码示例
- Python PyTorch AvgPool2d用法及代码示例
注:本文由纯净天空筛选整理自pytorch.org大神的英文原创作品 torch.nn.Embedding.from_pretrained。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。