本文简要介绍python语言中 torch.float_power
的用法。
用法:
torch.float_power(input, exponent, *, out=None) → Tensor
将
input
提高到exponent
的幂,元素级,双精度。如果两个输入都不是复数,则返回torch.float64
张量,如果一个或多个输入是复数,则返回torch.complex128
张量。注意
此函数始终以双精度计算,与
torch.pow()
不同,后者实现了更典型的类型提升。当需要在更广泛或更精确的 dtype 中执行计算时,这很有用,或者计算结果可能包含在输入 dtype 中无法表示的小数值,例如当整数基数被提升为负整数 index 时。例子:
>>> a = torch.randint(10, (4,)) >>> a tensor([6, 4, 7, 1]) >>> torch.float_power(a, 2) tensor([36., 16., 49., 1.], dtype=torch.float64) >>> a = torch.arange(1, 5) >>> a tensor([ 1, 2, 3, 4]) >>> exp = torch.tensor([2, -3, 4, -5]) >>> exp tensor([ 2, -3, 4, -5]) >>> torch.float_power(a, exp) tensor([1.0000e+00, 1.2500e-01, 8.1000e+01, 9.7656e-04], dtype=torch.float64)
相关用法
- Python PyTorch floor_divide用法及代码示例
- Python PyTorch floor用法及代码示例
- Python PyTorch flip用法及代码示例
- Python PyTorch flipud用法及代码示例
- Python PyTorch fliplr用法及代码示例
- Python PyTorch flatten用法及代码示例
- Python PyTorch frexp用法及代码示例
- Python PyTorch fft2用法及代码示例
- Python PyTorch fftn用法及代码示例
- Python PyTorch frombuffer用法及代码示例
- Python PyTorch fractional_max_pool3d用法及代码示例
- Python PyTorch frac用法及代码示例
- Python PyTorch freeze用法及代码示例
- Python PyTorch fp16_compress_hook用法及代码示例
- Python PyTorch fftshift用法及代码示例
- Python PyTorch fake_quantize_per_channel_affine用法及代码示例
- Python PyTorch fp16_compress_wrapper用法及代码示例
- Python PyTorch fractional_max_pool2d用法及代码示例
- Python PyTorch fftfreq用法及代码示例
- Python PyTorch from_numpy用法及代码示例
- Python PyTorch filter_wikipedia_xml用法及代码示例
- Python PyTorch fuse_modules用法及代码示例
- Python PyTorch fasterrcnn_mobilenet_v3_large_320_fpn用法及代码示例
- Python PyTorch fmax用法及代码示例
- Python PyTorch fork用法及代码示例
注:本文由纯净天空筛选整理自pytorch.org大神的英文原创作品 torch.float_power。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。