本文简要介绍python语言中 torch.nn.Dropout
的用法。
用法:
class torch.nn.Dropout(p=0.5, inplace=False)
p-元素归零的概率。默认值:0.5
inplace-如果设置为
True
,将就地执行此操作。默认值:False
在训练期间,使用来自伯努利分布的样本以概率
p
将输入张量的一些元素随机归零。每个通道将在每次前转调用时独立归零。如本文所述,这已被证明是一种用于正则化和防止神经元共同适应的有效技术通过防止特征检测器的共同适应来改进神经网络.
此外,在训练期间,输出按 的因子缩放。这意味着在评估期间,模块只计算一个恒等函数。
- 形状:
输入: 。输入可以是任何形状
输出: 。输出与输入具有相同的形状
例子:
>>> m = nn.Dropout(p=0.2) >>> input = torch.randn(20, 16) >>> output = m(input)
参数:
相关用法
- Python PyTorch Dropout3d用法及代码示例
- Python PyTorch Dropout2d用法及代码示例
- Python PyTorch DeQuantize用法及代码示例
- Python PyTorch DistributedModelParallel用法及代码示例
- Python PyTorch DistributedDataParallel用法及代码示例
- Python PyTorch DenseArch用法及代码示例
- Python PyTorch DeepFM用法及代码示例
- Python PyTorch DistributedDataParallel.register_comm_hook用法及代码示例
- Python PyTorch DataFrameMaker用法及代码示例
- Python PyTorch DLRM用法及代码示例
- Python PyTorch DistributedSampler用法及代码示例
- Python PyTorch DistributedDataParallel.join用法及代码示例
- Python PyTorch DistributedModelParallel.named_parameters用法及代码示例
- Python PyTorch DataParallel用法及代码示例
- Python PyTorch DistributedModelParallel.state_dict用法及代码示例
- Python PyTorch DistributedDataParallel.no_sync用法及代码示例
- Python PyTorch Decompressor用法及代码示例
- Python PyTorch DistributedModelParallel.named_buffers用法及代码示例
- Python PyTorch DeepFM.forward用法及代码示例
- Python PyTorch Dirichlet用法及代码示例
- Python PyTorch Demultiplexer用法及代码示例
- Python PyTorch DistributedOptimizer用法及代码示例
- Python PyTorch DatasetFolder.find_classes用法及代码示例
- Python PyTorch frexp用法及代码示例
- Python PyTorch jvp用法及代码示例
注:本文由纯净天空筛选整理自pytorch.org大神的英文原创作品 torch.nn.Dropout。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。