本文簡要介紹python語言中 torch.logspace
的用法。
用法:
torch.logspace(start, end, steps, base=10.0, *, out=None, dtype=None, layout=torch.strided, device=None, requires_grad=False) → Tensor
out(Tensor,可選的) -輸出張量。
dtype(torch.dpython:類型,可選的) -執行計算的數據類型。默認值:如果為無,當
start
和end
都是實數時使用全局默認 dtype(參見 torch.get_default_dtype()),並且當兩者都是複數時使用相應的複數 dtype。layout(
torch.layout
, 可選的) -返回張量的所需布局。默認值:torch.strided
。device(
torch.device
, 可選的) -返回張量的所需設備。默認值:如果None
,使用當前設備作為默認張量類型(參見torch.set_default_tensor_type()
)。device
將是 CPU 張量類型的 CPU 和 CUDA 張量類型的當前 CUDA 設備。requires_grad(bool,可選的) -如果 autograd 應該在返回的張量上記錄操作。默認值:
False
。
創建一個大小為
steps
的一維張量,其值在 到 之間均勻分布,包括以base
為底的對數刻度。也就是說,這些值為:警告
不建議為
steps
提供值。為了向後兼容,不提供steps
的值將創建一個具有 100 個元素的張量。請注意,此行為未反映在記錄的函數簽名中,不應依賴。在未來的PyTorch 版本中,未能為steps
提供值將引發運行時錯誤。例子:
>>> torch.logspace(start=-10, end=10, steps=5) tensor([ 1.0000e-10, 1.0000e-05, 1.0000e+00, 1.0000e+05, 1.0000e+10]) >>> torch.logspace(start=0.1, end=1.0, steps=5) tensor([ 1.2589, 2.1135, 3.5481, 5.9566, 10.0000]) >>> torch.logspace(start=0.1, end=1.0, steps=1) tensor([1.2589]) >>> torch.logspace(start=2, end=2, steps=1, base=2) tensor([4.0])
參數:
關鍵字參數:
相關用法
- Python PyTorch logsumexp用法及代碼示例
- Python PyTorch log2用法及代碼示例
- Python PyTorch logical_xor用法及代碼示例
- Python PyTorch logical_and用法及代碼示例
- Python PyTorch log_softmax用法及代碼示例
- Python PyTorch logical_or用法及代碼示例
- Python PyTorch logit用法及代碼示例
- Python PyTorch logical_not用法及代碼示例
- Python PyTorch logcumsumexp用法及代碼示例
- Python PyTorch log10用法及代碼示例
- Python PyTorch logaddexp用法及代碼示例
- Python PyTorch logdet用法及代碼示例
- Python PyTorch log用法及代碼示例
- Python PyTorch log1p用法及代碼示例
- Python PyTorch load_state_dict_from_url用法及代碼示例
- Python PyTorch load_sp_model用法及代碼示例
- Python PyTorch load_url用法及代碼示例
- Python PyTorch load_inline用法及代碼示例
- Python PyTorch load用法及代碼示例
- Python PyTorch lstsq用法及代碼示例
- Python PyTorch lerp用法及代碼示例
- Python PyTorch lt用法及代碼示例
- Python PyTorch lgamma用法及代碼示例
- Python PyTorch lazy_apply用法及代碼示例
- Python PyTorch ldexp用法及代碼示例
注:本文由純淨天空篩選整理自pytorch.org大神的英文原創作品 torch.logspace。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。