本文简要介绍python语言中 torch.jit.ScriptModule.modules
的用法。
用法:
modules()
Module - 网络中的一个模块
返回网络中所有模块的迭代器。
注意
重复的模块只返回一次。在以下示例中,
l
将仅返回一次。例子:
>>> l = nn.Linear(2, 2) >>> net = nn.Sequential(l, l) >>> for idx, m in enumerate(net.modules()): print(idx, '->', m) 0 -> Sequential( (0): Linear(in_features=2, out_features=2, bias=True) (1): Linear(in_features=2, out_features=2, bias=True) ) 1 -> Linear(in_features=2, out_features=2, bias=True)
生成(Yield):
相关用法
- Python PyTorch ScriptModule.state_dict用法及代码示例
- Python PyTorch ScriptModule.register_full_backward_hook用法及代码示例
- Python PyTorch ScriptModule.parameters用法及代码示例
- Python PyTorch ScriptModule.register_forward_hook用法及代码示例
- Python PyTorch ScriptModule.register_forward_pre_hook用法及代码示例
- Python PyTorch ScriptModule.named_parameters用法及代码示例
- Python PyTorch ScriptModule.to用法及代码示例
- Python PyTorch ScriptModule.named_buffers用法及代码示例
- Python PyTorch ScriptModule.buffers用法及代码示例
- Python PyTorch ScriptModule.named_modules用法及代码示例
- Python PyTorch ScriptModule.named_children用法及代码示例
- Python PyTorch ScriptModule.register_buffer用法及代码示例
- Python PyTorch ScriptModule.apply用法及代码示例
- Python PyTorch ScaledDotProduct.__init__用法及代码示例
- Python PyTorch Sigmoid用法及代码示例
- Python PyTorch ShardedEmbeddingBagCollection.named_parameters用法及代码示例
- Python PyTorch SummaryWriter.add_histogram用法及代码示例
- Python PyTorch Softmin用法及代码示例
- Python PyTorch SummaryWriter.add_pr_curve用法及代码示例
- Python PyTorch Softmax2d用法及代码示例
- Python PyTorch ShardedEmbeddingBag.named_parameters用法及代码示例
- Python PyTorch SummaryWriter.add_custom_scalars用法及代码示例
- Python PyTorch ShardedEmbeddingBag.state_dict用法及代码示例
- Python PyTorch SummaryWriter.add_image用法及代码示例
- Python PyTorch Store.num_keys用法及代码示例
注:本文由纯净天空筛选整理自pytorch.org大神的英文原创作品 torch.jit.ScriptModule.modules。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。