本文簡要介紹python語言中 torch.linalg.eigvalsh
的用法。
用法:
torch.linalg.eigvalsh(A, UPLO='L', *, out=None) → Tensor
A(Tensor) -形狀為
(*, n, n)
的張量,其中*
是零個或多個由對稱或 Hermitian 矩陣組成的批次維度。UPLO('L','U',可選的) -控製在計算中是使用
A
的上三角部分還是下三角部分。默認值:‘L’
。
out(Tensor,可選的) -輸出張量。如果
None
則忽略。默認值:None
。即使
A
是複數,實值張量也包含特征值。特征值按升序返回。計算複數 Hermitian 或實對稱矩陣的特征值。
讓
是 或者 , 這特征值複 Hermitian 或實對稱矩陣的 被定義為多項式的根(以重數計算)p
學位n
由其中
n
維單位矩陣。實對稱或複 Hermitian 矩陣的特征值始終為實數。 是支持 float、double、cfloat 和 cdouble dtypes 的輸入。還支持批量矩陣,如果
A
是批量矩陣,則輸出具有相同的批量維度。特征值按升序返回。
A
被假定為 Hermitian (resp. 對稱),但內部並未對此進行檢查,而是:如果
UPLO
= ‘L’
(默認),則僅在計算中使用矩陣的下三角部分。如果
UPLO
= ‘U’
,則僅使用矩陣的上三角部分。
注意
當輸入在 CUDA 設備上時,此函數將該設備與 CPU 同步。
例子:
>>> A = torch.randn(2, 2, dtype=torch.complex128) >>> A = A + A.T.conj() # creates a Hermitian matrix >>> A tensor([[2.9228+0.0000j, 0.2029-0.0862j], [0.2029+0.0862j, 0.3464+0.0000j]], dtype=torch.complex128) >>> torch.linalg.eigvalsh(A) tensor([0.3277, 2.9415], dtype=torch.float64) >>> A = torch.randn(3, 2, 2, dtype=torch.float64) >>> A = A + A.transpose(-2, -1) # creates a batch of symmetric matrices >>> torch.linalg.eigvalsh(A) tensor([[ 2.5797, 3.4629], [-4.1605, 1.3780], [-3.1113, 2.7381]], dtype=torch.float64)
參數:
關鍵字參數:
返回:
相關用法
- Python PyTorch eigvals用法及代碼示例
- Python PyTorch eig用法及代碼示例
- Python PyTorch eigh用法及代碼示例
- Python PyTorch einsum用法及代碼示例
- Python PyTorch enable_grad用法及代碼示例
- Python PyTorch equal用法及代碼示例
- Python PyTorch eq用法及代碼示例
- Python PyTorch erfc用法及代碼示例
- Python PyTorch exp用法及代碼示例
- Python PyTorch empty_like用法及代碼示例
- Python PyTorch expires用法及代碼示例
- Python PyTorch effect_names用法及代碼示例
- Python PyTorch entr用法及代碼示例
- Python PyTorch embedding用法及代碼示例
- Python PyTorch empty_strided用法及代碼示例
- Python PyTorch emit_nvtx用法及代碼示例
- Python PyTorch expm1用法及代碼示例
- Python PyTorch export用法及代碼示例
- Python PyTorch exp2用法及代碼示例
- Python PyTorch embedding_bag用法及代碼示例
- Python PyTorch erfinv用法及代碼示例
- Python PyTorch extract_archive用法及代碼示例
- Python PyTorch empty用法及代碼示例
- Python PyTorch eye用法及代碼示例
- Python PyTorch eye_用法及代碼示例
注:本文由純淨天空篩選整理自pytorch.org大神的英文原創作品 torch.linalg.eigvalsh。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。