当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python sklearn zero_one_loss用法及代码示例


本文简要介绍python语言中 sklearn.metrics.zero_one_loss 的用法。

用法:

sklearn.metrics.zero_one_loss(y_true, y_pred, *, normalize=True, sample_weight=None)

Zero-one分类损失。

如果 normalize 是 True ,则返回错误分类的分数(浮点数),否则返回错误分类的数量(整数)。最佳性能为 0。

在用户指南中阅读更多信息。

参数

y_true一维数组,或标签指示符数组/稀疏矩阵

基本事实(正确)标签。

y_pred一维数组,或标签指示符数组/稀疏矩阵

分类器返回的预测标签。

normalize布尔,默认=真

如果 False ,返回错误分类的数量。否则,返回错误分类的比例。

sample_weight形状类似数组 (n_samples,),默认=None

样本权重。

返回

loss浮点数或整数,

如果 normalize == True ,返回错误分类的分数(浮点数),否则返回错误分类的数量(整数)。

注意

在多标签分类中,zero_one_loss 函数对应于子集zero-one loss:对于每个样本,必须正确预测整个标签集,否则该样本的损失等于 1。

例子

>>> from sklearn.metrics import zero_one_loss
>>> y_pred = [1, 2, 3, 4]
>>> y_true = [2, 2, 3, 4]
>>> zero_one_loss(y_true, y_pred)
0.25
>>> zero_one_loss(y_true, y_pred, normalize=False)
1

在具有二进制标签指示符的多标签情况下:

>>> import numpy as np
>>> zero_one_loss(np.array([[0, 1], [1, 1]]), np.ones((2, 2)))
0.5

相关用法


注:本文由纯净天空筛选整理自scikit-learn.org大神的英文原创作品 sklearn.metrics.zero_one_loss。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。