本文简要介绍python语言中 torch.nn.Softmax
的用法。
用法:
class torch.nn.Softmax(dim=None)
一个与输入具有相同维度和形状的张量,其值在 [0, 1] 范围内
dim(int) -计算 Softmax 的维度(因此沿 dim 的每个切片的总和为 1)。
将 Softmax 函数应用于 n 维输入张量,重新缩放它们,使 n 维输出张量的元素位于 [0,1] 范围内并且总和为 1。
Softmax 定义为:
当输入张量是稀疏张量时,未指定的值将被视为
-inf
。- 形状:
输入:
*
表示任意数量的附加维度 其中输出: ,与输入的形状相同
注意
该模块不直接与 NLLLoss 一起使用,它期望在 Softmax 和自身之间计算 Log。改用
LogSoftmax
(它更快并且具有更好的数值属性)。例子:
>>> m = nn.Softmax(dim=1) >>> input = torch.randn(2, 3) >>> output = m(input)
返回:
参数:
相关用法
- Python PyTorch Softmax2d用法及代码示例
- Python PyTorch Softmin用法及代码示例
- Python PyTorch Softshrink用法及代码示例
- Python PyTorch Softplus用法及代码示例
- Python PyTorch Softsign用法及代码示例
- Python PyTorch SobolEngine用法及代码示例
- Python PyTorch ScaledDotProduct.__init__用法及代码示例
- Python PyTorch Sigmoid用法及代码示例
- Python PyTorch ShardedEmbeddingBagCollection.named_parameters用法及代码示例
- Python PyTorch SummaryWriter.add_histogram用法及代码示例
- Python PyTorch ScriptModule.state_dict用法及代码示例
- Python PyTorch SummaryWriter.add_pr_curve用法及代码示例
- Python PyTorch ShardedEmbeddingBag.named_parameters用法及代码示例
- Python PyTorch ScriptModule.register_full_backward_hook用法及代码示例
- Python PyTorch SummaryWriter.add_custom_scalars用法及代码示例
- Python PyTorch ScriptModule.parameters用法及代码示例
- Python PyTorch ShardedEmbeddingBag.state_dict用法及代码示例
- Python PyTorch SummaryWriter.add_image用法及代码示例
- Python PyTorch Store.num_keys用法及代码示例
- Python PyTorch ShardedEmbeddingBagCollection.named_modules用法及代码示例
- Python PyTorch SummaryWriter.add_hparams用法及代码示例
- Python PyTorch ScriptModule.register_forward_hook用法及代码示例
- Python PyTorch ShardedEmbeddingBagCollection.state_dict用法及代码示例
- Python PyTorch ScriptModule.modules用法及代码示例
- Python PyTorch SummaryWriter.__init__用法及代码示例
注:本文由纯净天空筛选整理自pytorch.org大神的英文原创作品 torch.nn.Softmax。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。