本文简要介绍python语言中 torch.distributions.multinomial.Multinomial
的用法。
用法:
class torch.distributions.multinomial.Multinomial(total_count=1, probs=None, logits=None, validate_args=None)
基础:
torch.distributions.distribution.Distribution
创建由
total_count
和probs
或logits
(但不是两者)参数化的多项分布。probs
的最内部维度对类别进行索引。所有其他维度的批次索引。请注意,如果仅调用
log_prob()
,则无需指定total_count
(请参见下面的示例)注意
probs
参数必须是非负、有限且具有非零总和,并且沿最后一个维度将其归一化为总和为 1。probs
将返回此标准化值。logits
参数将被解释为非标准化对数概率,因此可以是任何实数。它同样会被标准化,以便沿最后一个维度得到的概率总和为 1。logits
将返回此标准化值。sample()
需要一个共享的total_count
用于所有参数和示例。log_prob()
允许每个参数和样本使用不同的total_count
。
例子:
>>> m = Multinomial(100, torch.tensor([ 1., 1., 1., 1.])) >>> x = m.sample() # equal probability of 0, 1, 2, 3 tensor([ 21., 24., 30., 25.]) >>> Multinomial(probs=torch.tensor([1., 1., 1., 1.])).log_prob(x) tensor([-4.1338])
相关用法
- Python PyTorch MultiStepLR用法及代码示例
- Python PyTorch MultiLabelMarginLoss用法及代码示例
- Python PyTorch MultiplicativeLR用法及代码示例
- Python PyTorch MultiheadAttention用法及代码示例
- Python PyTorch MultivariateNormal用法及代码示例
- Python PyTorch MultiScaleRoIAlign用法及代码示例
- Python PyTorch MultiheadAttentionContainer.__init__用法及代码示例
- Python PyTorch MultiMarginLoss用法及代码示例
- Python PyTorch Multiplexer用法及代码示例
- Python PyTorch MuLawEncoding用法及代码示例
- Python PyTorch MuLawDecoding用法及代码示例
- Python PyTorch MaxUnpool3d用法及代码示例
- Python PyTorch Module.buffers用法及代码示例
- Python PyTorch Module.register_full_backward_hook用法及代码示例
- Python PyTorch Module.named_modules用法及代码示例
- Python PyTorch Module.parameters用法及代码示例
- Python PyTorch MaxPool1d用法及代码示例
- Python PyTorch Module.register_forward_hook用法及代码示例
- Python PyTorch MetaInferGroupedPooledEmbeddingsLookup.state_dict用法及代码示例
- Python PyTorch Module.named_parameters用法及代码示例
- Python PyTorch MetaInferGroupedEmbeddingsLookup.named_buffers用法及代码示例
- Python PyTorch ModuleList用法及代码示例
- Python PyTorch MixtureSameFamily用法及代码示例
- Python PyTorch MpSerialExecutor用法及代码示例
- Python PyTorch MaxUnpool1d用法及代码示例
注:本文由纯净天空筛选整理自pytorch.org大神的英文原创作品 torch.distributions.multinomial.Multinomial。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。