當前位置: 首頁>>代碼示例 >>用法及示例精選 >>正文


Python sklearn OutputCodeClassifier用法及代碼示例


本文簡要介紹python語言中 sklearn.multiclass.OutputCodeClassifier 的用法。

用法:

class sklearn.multiclass.OutputCodeClassifier(estimator, *, code_size=1.5, random_state=None, n_jobs=None)

(Error-Correcting) Output-Code 多類策略。

基於 Output-code 的策略包括用二進製代碼(0 和 1 的數組)表示每個類。在擬合時,碼本中的每一位都擬合一個二進製分類器。在預測時,分類器用於在類空間中投影新點,並選擇最接近這些點的類。這些策略的主要優點是用戶可以控製使用的分類器數量,用於壓縮模型 (0 < code_size < 1) 或使模型對錯誤更加魯棒 (code_size > 1) .有關更多詳細信息,請參閱文檔。

在用戶指南中閱讀更多信息。

參數

estimator估計器對象

實現擬合的估計器對象和decision_function 或predict_proba 之一。

code_size浮點數,默認=1.5

用於創建代碼本的類數量的百分比。 0 到 1 之間的數字需要的分類器數量少於 one-vs-the-rest。大於 1 的數字將需要比 one-vs-the-rest 更多的分類器。

random_stateint,RandomState 實例,默認=無

用於初始化碼本的生成器。傳遞 int 以在多個函數調用之間實現可重現的輸出。請參閱術語表。

n_jobs整數,默認=無

用於計算的作業數量:並行計算多類問題。

None 表示 1,除非在 joblib.parallel_backend 上下文中。 -1 表示使用所有處理器。有關詳細信息,請參閱詞匯表。

屬性

estimators_int(n_classes * code_size) 估計器列表

用於預測的估計器。

classes_ndarray 形狀 (n_classes,)

包含標簽的數組。

code_book_ndarray 形狀(n_classes,code_size)

包含每個類的代碼的二進製數組。

n_features_in_int

擬合期間看到的特征數。僅當基礎估計器在合適時公開此類屬性時才定義。

feature_names_in_ndarray 形狀(n_features_in_,)

擬合期間看到的特征名稱。僅當基礎估計器在合適時公開此類屬性時才定義。

參考

1

“通過error-correcting 輸出代碼解決多類學習問題”,Dietterich T., Bakiri G.,人工智能研究雜誌 2,1995。

2

“錯誤編碼方法和 PICT”,James G.,Hastie T.,Journal of Computational and Graphical Statistics 7,1998。

3

“統計學習的要素”,Hastie T.、Tibshirani R.、Friedman J.,第 606 頁 (second-edition) 2008。

例子

>>> from sklearn.multiclass import OutputCodeClassifier
>>> from sklearn.ensemble import RandomForestClassifier
>>> from sklearn.datasets import make_classification
>>> X, y = make_classification(n_samples=100, n_features=4,
...                            n_informative=2, n_redundant=0,
...                            random_state=0, shuffle=False)
>>> clf = OutputCodeClassifier(
...     estimator=RandomForestClassifier(random_state=0),
...     random_state=0).fit(X, y)
>>> clf.predict([[0, 0, 0, 0]])
array([1])

相關用法


注:本文由純淨天空篩選整理自scikit-learn.org大神的英文原創作品 sklearn.multiclass.OutputCodeClassifier。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。