本文簡要介紹python語言中 sklearn.metrics.fowlkes_mallows_score
的用法。
用法:
sklearn.metrics.fowlkes_mallows_score(labels_true, labels_pred, *, sparse=False)
測量一組點的兩個聚類的相似性。
Fowlkes-Mallows 索引 (FMI) 定義為精度和召回率之間的幾何平均值:
FMI = TP / sqrt((TP + FP) * (TP + FN))
在哪裏
TP
是數量真陽性(即屬於同一簇的點對的數量labels_true
和labels_pred
),FP
是數量假陽性(即屬於同一簇的點對的數量labels_true
而不是在labels_pred
) 和FN
是數量假陰性(即屬於同一簇的點對的數量labels_pred
而不是在labels_True
)。分數範圍從 0 到 1。高值表示兩個集群之間的相似性良好。
在用戶指南中閱讀更多信息。
- labels_true:int 數組,形狀 = (
n_samples
,) 將數據聚類為不相交的子集。
- labels_pred:數組,形狀 = (
n_samples
, ) 將數據聚類為不相交的子集。
- sparse:布爾,默認=假
使用稀疏矩陣在內部計算列聯矩陣。
- labels_true:int 數組,形狀 = (
- score:浮點數
生成的Fowlkes-Mallows 分數。
參數:
返回:
參考:
例子:
完美的標簽既同質又完整,因此得分為 1.0:
>>> from sklearn.metrics.cluster import fowlkes_mallows_score >>> fowlkes_mallows_score([0, 0, 1, 1], [0, 0, 1, 1]) 1.0 >>> fowlkes_mallows_score([0, 0, 1, 1], [1, 1, 0, 0]) 1.0
如果類成員完全分布在不同的集群中,則分配是完全隨機的,因此 FMI 為空:
>>> fowlkes_mallows_score([0, 0, 0, 0], [0, 1, 2, 3]) 0.0
相關用法
- Python sklearn fbeta_score用法及代碼示例
- Python sklearn f1_score用法及代碼示例
- Python sklearn jaccard_score用法及代碼示例
- Python sklearn WhiteKernel用法及代碼示例
- Python sklearn CalibrationDisplay.from_predictions用法及代碼示例
- Python sklearn VotingRegressor用法及代碼示例
- Python sklearn gen_batches用法及代碼示例
- Python sklearn ExpSineSquared用法及代碼示例
- Python sklearn MDS用法及代碼示例
- Python sklearn adjusted_rand_score用法及代碼示例
- Python sklearn MLPClassifier用法及代碼示例
- Python sklearn train_test_split用法及代碼示例
- Python sklearn RandomTreesEmbedding用法及代碼示例
- Python sklearn GradientBoostingRegressor用法及代碼示例
- Python sklearn GridSearchCV用法及代碼示例
- Python sklearn log_loss用法及代碼示例
- Python sklearn r2_score用法及代碼示例
- Python sklearn ndcg_score用法及代碼示例
- Python sklearn ShrunkCovariance用法及代碼示例
- Python sklearn SelfTrainingClassifier用法及代碼示例
- Python sklearn load_svmlight_file用法及代碼示例
- Python sklearn make_pipeline用法及代碼示例
- Python sklearn MultiTaskLasso用法及代碼示例
- Python sklearn KBinsDiscretizer用法及代碼示例
- Python sklearn power_transform用法及代碼示例
注:本文由純淨天空篩選整理自scikit-learn.org大神的英文原創作品 sklearn.metrics.fowlkes_mallows_score。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。