Pandas DataFrame.corr(~)
方法計算源 DataFrame 中列的成對相關性。
注意
所有 NaN
值都將被忽略。
參數
1.method
| string
或 callable
| optional
要計算的相關係數的類型:
值 |
說明 |
---|---|
|
計算標準相關係數。 |
|
計算 Kendall Tau 相關係數。 |
|
計算斯皮爾曼等級相關性。 |
|
該函數接受兩個一維 Numpy 數組作為參數並返回單個浮點數。返回的矩陣始終是對稱的,並且沿主對角線填充 1。 |
默認情況下,method="pearson"
。
2. min_periods
| int
| optional
計算相關性所需的非NaN
值的最小數量。
返回值
DataFrame
表示源 DataFrame 中值的相關矩陣。
例子
基本用法
考慮以下 DataFrame :
df = pd.DataFrame({"A":[8,5,2,1],"B":[3,4,5,9]})
df
A B
0 8 3
1 5 4
2 2 5
3 1 9
要計算兩列的 "pearson"
相關性:
df.corr()
A B
A 1.000000 -0.841685
B -0.841685 1.000000
我們得到的結果是列 A
和 B
具有 -0.84
相關性。
指定min_periods
考慮以下 DataFrame :
df = pd.DataFrame({"A":[3,np.NaN,4],"B":[5,6,np.NaN]})
df
A B
0 3.0 5.0
1 NaN 6.0
2 4.0 NaN
設置 min_periods=3
會產生:
df.corr(min_periods=3)
A B
A NaN NaN
B NaN NaN
在這裏,我們得到所有NaN
的原因是,該方法忽略了NaN
,因此每列隻有2個值。由於我們已將計算相關性的最小閾值設置為 3
,因此我們最終得到一個由 NaN
填充的 DataFrame 。
相關用法
- Python Pandas DataFrame corrwith方法用法及代碼示例
- Python PySpark DataFrame corr方法用法及代碼示例
- Python Pandas DataFrame copy方法用法及代碼示例
- Python PySpark DataFrame collect方法用法及代碼示例
- Python PySpark DataFrame coalesce方法用法及代碼示例
- Python Pandas DataFrame convert_dtypes方法用法及代碼示例
- Python Pandas DataFrame combine方法用法及代碼示例
- Python Pandas DataFrame columns屬性用法及代碼示例
- Python PySpark DataFrame cov方法用法及代碼示例
- Python Pandas DataFrame count方法用法及代碼示例
- Python PySpark DataFrame colRegex方法用法及代碼示例
- Python PySpark DataFrame columns屬性用法及代碼示例
- Python PySpark DataFrame count方法用法及代碼示例
- Python Pandas DataFrame combine_first方法用法及代碼示例
- Python Pandas DataFrame cov方法用法及代碼示例
- Python Pandas DataFrame clip方法用法及代碼示例
- Python Pandas DataFrame cummax方法用法及代碼示例
- Python Pandas DataFrame cumprod方法用法及代碼示例
- Python Pandas DataFrame cummin方法用法及代碼示例
- Python Pandas DataFrame cumsum方法用法及代碼示例
- Python Pandas DataFrame empty屬性用法及代碼示例
- Python Pandas DataFrame pop方法用法及代碼示例
- Python Pandas DataFrame nsmallest方法用法及代碼示例
- Python Pandas DataFrame sample方法用法及代碼示例
- Python Pandas DataFrame items方法用法及代碼示例
注:本文由純淨天空篩選整理自Isshin Inada大神的英文原創作品 Pandas DataFrame | corr method。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。