本文简要介绍python语言中 torch.logspace
的用法。
用法:
torch.logspace(start, end, steps, base=10.0, *, out=None, dtype=None, layout=torch.strided, device=None, requires_grad=False) → Tensor
out(Tensor,可选的) -输出张量。
dtype(torch.dpython:类型,可选的) -执行计算的数据类型。默认值:如果为无,当
start
和end
都是实数时使用全局默认 dtype(参见 torch.get_default_dtype()),并且当两者都是复数时使用相应的复数 dtype。layout(
torch.layout
, 可选的) -返回张量的所需布局。默认值:torch.strided
。device(
torch.device
, 可选的) -返回张量的所需设备。默认值:如果None
,使用当前设备作为默认张量类型(参见torch.set_default_tensor_type()
)。device
将是 CPU 张量类型的 CPU 和 CUDA 张量类型的当前 CUDA 设备。requires_grad(bool,可选的) -如果 autograd 应该在返回的张量上记录操作。默认值:
False
。
创建一个大小为
steps
的一维张量,其值在 到 之间均匀分布,包括以base
为底的对数刻度。也就是说,这些值为:警告
不建议为
steps
提供值。为了向后兼容,不提供steps
的值将创建一个具有 100 个元素的张量。请注意,此行为未反映在记录的函数签名中,不应依赖。在未来的PyTorch 版本中,未能为steps
提供值将引发运行时错误。例子:
>>> torch.logspace(start=-10, end=10, steps=5) tensor([ 1.0000e-10, 1.0000e-05, 1.0000e+00, 1.0000e+05, 1.0000e+10]) >>> torch.logspace(start=0.1, end=1.0, steps=5) tensor([ 1.2589, 2.1135, 3.5481, 5.9566, 10.0000]) >>> torch.logspace(start=0.1, end=1.0, steps=1) tensor([1.2589]) >>> torch.logspace(start=2, end=2, steps=1, base=2) tensor([4.0])
参数:
关键字参数:
相关用法
- Python PyTorch logsumexp用法及代码示例
- Python PyTorch log2用法及代码示例
- Python PyTorch logical_xor用法及代码示例
- Python PyTorch logical_and用法及代码示例
- Python PyTorch log_softmax用法及代码示例
- Python PyTorch logical_or用法及代码示例
- Python PyTorch logit用法及代码示例
- Python PyTorch logical_not用法及代码示例
- Python PyTorch logcumsumexp用法及代码示例
- Python PyTorch log10用法及代码示例
- Python PyTorch logaddexp用法及代码示例
- Python PyTorch logdet用法及代码示例
- Python PyTorch log用法及代码示例
- Python PyTorch log1p用法及代码示例
- Python PyTorch load_state_dict_from_url用法及代码示例
- Python PyTorch load_sp_model用法及代码示例
- Python PyTorch load_url用法及代码示例
- Python PyTorch load_inline用法及代码示例
- Python PyTorch load用法及代码示例
- Python PyTorch lstsq用法及代码示例
- Python PyTorch lerp用法及代码示例
- Python PyTorch lt用法及代码示例
- Python PyTorch lgamma用法及代码示例
- Python PyTorch lazy_apply用法及代码示例
- Python PyTorch ldexp用法及代码示例
注:本文由纯净天空筛选整理自pytorch.org大神的英文原创作品 torch.logspace。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。