本文简要介绍python语言中 sklearn.metrics.hamming_loss
的用法。
用法:
sklearn.metrics.hamming_loss(y_true, y_pred, *, sample_weight=None)
计算平均汉明损失。
汉明损失是错误预测的标签比例。
在用户指南中阅读更多信息。
- y_true:一维数组,或标签指示符数组/稀疏矩阵
基本事实(正确)标签。
- y_pred:一维数组,或标签指示符数组/稀疏矩阵
分类器返回的预测标签。
- sample_weight:形状类似数组 (n_samples,),默认=None
样本权重。
- loss:浮点数或int
返回
y_true
和y_pred
元素之间的平均汉明损失。
参数:
返回:
注意:
在多类分类中,当
normalize
参数设置为True时,汉明损失对应于y_true
和y_pred
之间的汉明距离,相当于zero_one_loss
函数的子集。在多标签分类中,汉明损失不同于子集zero-one损失。 zero-one 损失认为给定样本的整个标签集不正确,如果它不完全匹配真实的标签集。汉明损失更宽容,因为它只惩罚个别标签。
当
normalize
参数设置为 True 时,Hamming 损失的上限是子集 zero-one 损失。它始终介于 0 和 1 之间,越低越好。参考:
- 1
格里戈里奥斯 Tsoumakas,Ioannis Katakis。多标签分类:概述。国际数据仓库与挖掘杂志,3(3),1-13,July-September 2007。
- 2
例子:
>>> from sklearn.metrics import hamming_loss >>> y_pred = [1, 2, 3, 4] >>> y_true = [2, 2, 3, 4] >>> hamming_loss(y_true, y_pred) 0.25
在具有二进制标签指示符的多标签情况下:
>>> import numpy as np >>> hamming_loss(np.array([[0, 1], [1, 1]]), np.zeros((2, 2))) 0.75
相关用法
- Python sklearn has_fit_parameter用法及代码示例
- Python sklearn haversine_distances用法及代码示例
- Python sklearn homogeneity_score用法及代码示例
- Python sklearn hinge_loss用法及代码示例
- Python sklearn jaccard_score用法及代码示例
- Python sklearn WhiteKernel用法及代码示例
- Python sklearn CalibrationDisplay.from_predictions用法及代码示例
- Python sklearn VotingRegressor用法及代码示例
- Python sklearn gen_batches用法及代码示例
- Python sklearn ExpSineSquared用法及代码示例
- Python sklearn MDS用法及代码示例
- Python sklearn adjusted_rand_score用法及代码示例
- Python sklearn MLPClassifier用法及代码示例
- Python sklearn train_test_split用法及代码示例
- Python sklearn RandomTreesEmbedding用法及代码示例
- Python sklearn GradientBoostingRegressor用法及代码示例
- Python sklearn GridSearchCV用法及代码示例
- Python sklearn log_loss用法及代码示例
- Python sklearn r2_score用法及代码示例
- Python sklearn ndcg_score用法及代码示例
- Python sklearn ShrunkCovariance用法及代码示例
- Python sklearn SelfTrainingClassifier用法及代码示例
- Python sklearn load_svmlight_file用法及代码示例
- Python sklearn make_pipeline用法及代码示例
- Python sklearn MultiTaskLasso用法及代码示例
注:本文由纯净天空筛选整理自scikit-learn.org大神的英文原创作品 sklearn.metrics.hamming_loss。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。