本文簡要介紹python語言中 sklearn.metrics.hamming_loss
的用法。
用法:
sklearn.metrics.hamming_loss(y_true, y_pred, *, sample_weight=None)
計算平均漢明損失。
漢明損失是錯誤預測的標簽比例。
在用戶指南中閱讀更多信息。
- y_true:一維數組,或標簽指示符數組/稀疏矩陣
基本事實(正確)標簽。
- y_pred:一維數組,或標簽指示符數組/稀疏矩陣
分類器返回的預測標簽。
- sample_weight:形狀類似數組 (n_samples,),默認=None
樣本權重。
- loss:浮點數或int
返回
y_true
和y_pred
元素之間的平均漢明損失。
參數:
返回:
注意:
在多類分類中,當
normalize
參數設置為True時,漢明損失對應於y_true
和y_pred
之間的漢明距離,相當於zero_one_loss
函數的子集。在多標簽分類中,漢明損失不同於子集zero-one損失。 zero-one 損失認為給定樣本的整個標簽集不正確,如果它不完全匹配真實的標簽集。漢明損失更寬容,因為它隻懲罰個別標簽。
當
normalize
參數設置為 True 時,Hamming 損失的上限是子集 zero-one 損失。它始終介於 0 和 1 之間,越低越好。參考:
- 1
格裏戈裏奧斯 Tsoumakas,Ioannis Katakis。多標簽分類:概述。國際數據倉庫與挖掘雜誌,3(3),1-13,July-September 2007。
- 2
例子:
>>> from sklearn.metrics import hamming_loss >>> y_pred = [1, 2, 3, 4] >>> y_true = [2, 2, 3, 4] >>> hamming_loss(y_true, y_pred) 0.25
在具有二進製標簽指示符的多標簽情況下:
>>> import numpy as np >>> hamming_loss(np.array([[0, 1], [1, 1]]), np.zeros((2, 2))) 0.75
相關用法
- Python sklearn has_fit_parameter用法及代碼示例
- Python sklearn haversine_distances用法及代碼示例
- Python sklearn homogeneity_score用法及代碼示例
- Python sklearn hinge_loss用法及代碼示例
- Python sklearn jaccard_score用法及代碼示例
- Python sklearn WhiteKernel用法及代碼示例
- Python sklearn CalibrationDisplay.from_predictions用法及代碼示例
- Python sklearn VotingRegressor用法及代碼示例
- Python sklearn gen_batches用法及代碼示例
- Python sklearn ExpSineSquared用法及代碼示例
- Python sklearn MDS用法及代碼示例
- Python sklearn adjusted_rand_score用法及代碼示例
- Python sklearn MLPClassifier用法及代碼示例
- Python sklearn train_test_split用法及代碼示例
- Python sklearn RandomTreesEmbedding用法及代碼示例
- Python sklearn GradientBoostingRegressor用法及代碼示例
- Python sklearn GridSearchCV用法及代碼示例
- Python sklearn log_loss用法及代碼示例
- Python sklearn r2_score用法及代碼示例
- Python sklearn ndcg_score用法及代碼示例
- Python sklearn ShrunkCovariance用法及代碼示例
- Python sklearn SelfTrainingClassifier用法及代碼示例
- Python sklearn load_svmlight_file用法及代碼示例
- Python sklearn make_pipeline用法及代碼示例
- Python sklearn MultiTaskLasso用法及代碼示例
注:本文由純淨天空篩選整理自scikit-learn.org大神的英文原創作品 sklearn.metrics.hamming_loss。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。