當前位置: 首頁>>代碼示例 >>用法及示例精選 >>正文


Python sklearn hamming_loss用法及代碼示例


本文簡要介紹python語言中 sklearn.metrics.hamming_loss 的用法。

用法:

sklearn.metrics.hamming_loss(y_true, y_pred, *, sample_weight=None)

計算平均漢明損失。

漢明損失是錯誤預測的標簽比例。

在用戶指南中閱讀更多信息。

參數

y_true一維數組,或標簽指示符數組/稀疏矩陣

基本事實(正確)標簽。

y_pred一維數組,或標簽指示符數組/稀疏矩陣

分類器返回的預測標簽。

sample_weight形狀類似數組 (n_samples,),默認=None

樣本權重。

返回

loss浮點數或int

返回 y_truey_pred 元素之間的平均漢明損失。

注意

在多類分類中,當normalize參數設置為True時,漢明損失對應於y_truey_pred之間的漢明距離,相當於zero_one_loss函數的子集。

在多標簽分類中,漢明損失不同於子集zero-one損失。 zero-one 損失認為給定樣本的整個標簽集不正確,如果它不完全匹配真實的標簽集。漢明損失更寬容,因為它隻懲罰個別標簽。

normalize 參數設置為 True 時,Hamming 損失的上限是子集 zero-one 損失。它始終介於 0 和 1 之間,越低越好。

參考

1

格裏戈裏奧斯 Tsoumakas,Ioannis Katakis。多標簽分類:概述。國際數據倉庫與挖掘雜誌,3(3),1-13,July-September 2007。

2

Wikipedia entry on the Hamming distance

例子

>>> from sklearn.metrics import hamming_loss
>>> y_pred = [1, 2, 3, 4]
>>> y_true = [2, 2, 3, 4]
>>> hamming_loss(y_true, y_pred)
0.25

在具有二進製標簽指示符的多標簽情況下:

>>> import numpy as np
>>> hamming_loss(np.array([[0, 1], [1, 1]]), np.zeros((2, 2)))
0.75

相關用法


注:本文由純淨天空篩選整理自scikit-learn.org大神的英文原創作品 sklearn.metrics.hamming_loss。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。