本文简要介绍python语言中 torchrec.distributed.embedding_lookup.GroupedEmbeddingsLookup.named_parameters
的用法。
用法:
named_parameters(prefix: str = '', recurse: bool = True) → Iterator[Tuple[str, torch.nn.parameter.Parameter]]
prefix(str) -前缀添加到所有参数名称。
recurse(bool) -如果为 True,则产生此模块和所有子模块的参数。否则,只产生作为该模块直接成员的参数。
(string, Parameter) - 包含名称和参数的元组
返回模块参数的迭代器,产生参数的名称以及参数本身。
例子:
>>> for name, param in self.named_parameters(): >>> if name in ['bias']: >>> print(param.size())
参数:
生成(Yield):
相关用法
- Python PyTorch GroupedEmbeddingsLookup.named_buffers用法及代码示例
- Python PyTorch GroupedEmbeddingsLookup.state_dict用法及代码示例
- Python PyTorch GroupedPositionWeightedModule.named_parameters用法及代码示例
- Python PyTorch GroupedPooledEmbeddingsLookup.named_buffers用法及代码示例
- Python PyTorch GroupedPositionWeightedModule.named_buffers用法及代码示例
- Python PyTorch GroupedPooledEmbeddingsLookup.state_dict用法及代码示例
- Python PyTorch GroupedPooledEmbeddingsLookup.named_parameters用法及代码示例
- Python PyTorch GroupedPositionWeightedModule.state_dict用法及代码示例
- Python PyTorch Grouper用法及代码示例
- Python PyTorch GroupNorm用法及代码示例
- Python PyTorch Graph.eliminate_dead_code用法及代码示例
- Python PyTorch Graph.inserting_before用法及代码示例
- Python PyTorch GradScaler.unscale_用法及代码示例
- Python PyTorch Graph.inserting_after用法及代码示例
- Python PyTorch Graph用法及代码示例
- Python PyTorch GriffinLim用法及代码示例
- Python PyTorch Graph.node_copy用法及代码示例
- Python PyTorch GreedyPerfPartitioner.partition用法及代码示例
- Python PyTorch Generator.set_state用法及代码示例
- Python PyTorch Generator.seed用法及代码示例
- Python PyTorch GLU用法及代码示例
- Python PyTorch GDriveReader用法及代码示例
- Python PyTorch GRUCell用法及代码示例
- Python PyTorch Gumbel用法及代码示例
- Python PyTorch Generator.get_state用法及代码示例
注:本文由纯净天空筛选整理自pytorch.org大神的英文原创作品 torchrec.distributed.embedding_lookup.GroupedEmbeddingsLookup.named_parameters。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。