本文简要介绍python语言中 torch.linalg.eigvalsh
的用法。
用法:
torch.linalg.eigvalsh(A, UPLO='L', *, out=None) → Tensor
A(Tensor) -形状为
(*, n, n)
的张量,其中*
是零个或多个由对称或 Hermitian 矩阵组成的批次维度。UPLO('L','U',可选的) -控制在计算中是使用
A
的上三角部分还是下三角部分。默认值:‘L’
。
out(Tensor,可选的) -输出张量。如果
None
则忽略。默认值:None
。即使
A
是复数,实值张量也包含特征值。特征值按升序返回。计算复数 Hermitian 或实对称矩阵的特征值。
让
是 或者 , 这特征值复 Hermitian 或实对称矩阵的 被定义为多项式的根(以重数计算)p
学位n
由其中
n
维单位矩阵。实对称或复 Hermitian 矩阵的特征值始终为实数。 是支持 float、double、cfloat 和 cdouble dtypes 的输入。还支持批量矩阵,如果
A
是批量矩阵,则输出具有相同的批量维度。特征值按升序返回。
A
被假定为 Hermitian (resp. 对称),但内部并未对此进行检查,而是:如果
UPLO
= ‘L’
(默认),则仅在计算中使用矩阵的下三角部分。如果
UPLO
= ‘U’
,则仅使用矩阵的上三角部分。
注意
当输入在 CUDA 设备上时,此函数将该设备与 CPU 同步。
例子:
>>> A = torch.randn(2, 2, dtype=torch.complex128) >>> A = A + A.T.conj() # creates a Hermitian matrix >>> A tensor([[2.9228+0.0000j, 0.2029-0.0862j], [0.2029+0.0862j, 0.3464+0.0000j]], dtype=torch.complex128) >>> torch.linalg.eigvalsh(A) tensor([0.3277, 2.9415], dtype=torch.float64) >>> A = torch.randn(3, 2, 2, dtype=torch.float64) >>> A = A + A.transpose(-2, -1) # creates a batch of symmetric matrices >>> torch.linalg.eigvalsh(A) tensor([[ 2.5797, 3.4629], [-4.1605, 1.3780], [-3.1113, 2.7381]], dtype=torch.float64)
参数:
关键字参数:
返回:
相关用法
- Python PyTorch eigvals用法及代码示例
- Python PyTorch eig用法及代码示例
- Python PyTorch eigh用法及代码示例
- Python PyTorch einsum用法及代码示例
- Python PyTorch enable_grad用法及代码示例
- Python PyTorch equal用法及代码示例
- Python PyTorch eq用法及代码示例
- Python PyTorch erfc用法及代码示例
- Python PyTorch exp用法及代码示例
- Python PyTorch empty_like用法及代码示例
- Python PyTorch expires用法及代码示例
- Python PyTorch effect_names用法及代码示例
- Python PyTorch entr用法及代码示例
- Python PyTorch embedding用法及代码示例
- Python PyTorch empty_strided用法及代码示例
- Python PyTorch emit_nvtx用法及代码示例
- Python PyTorch expm1用法及代码示例
- Python PyTorch export用法及代码示例
- Python PyTorch exp2用法及代码示例
- Python PyTorch embedding_bag用法及代码示例
- Python PyTorch erfinv用法及代码示例
- Python PyTorch extract_archive用法及代码示例
- Python PyTorch empty用法及代码示例
- Python PyTorch eye用法及代码示例
- Python PyTorch eye_用法及代码示例
注:本文由纯净天空筛选整理自pytorch.org大神的英文原创作品 torch.linalg.eigvalsh。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。