當前位置: 首頁>>代碼示例 >>用法及示例精選 >>正文


Python sklearn CategoricalNB用法及代碼示例


本文簡要介紹python語言中 sklearn.naive_bayes.CategoricalNB 的用法。

用法:

class sklearn.naive_bayes.CategoricalNB(*, alpha=1.0, fit_prior=True, class_prior=None, min_categories=None)

用於分類特征的樸素貝葉斯分類器。

分類樸素貝葉斯分類器適用於具有分類分布的離散特征的分類。每個特征的類別都是從分類分布中得出的。

在用戶指南中閱讀更多信息。

參數

alpha浮點數,默認=1.0

Additive (Laplace/Lidstone) 平滑參數(0 表示無平滑)。

fit_prior布爾,默認=真

是否學習類先驗概率。如果為 false,將使用統一的先驗。

class_prior形狀類似數組 (n_classes,),默認=無

類的先驗概率。如果指定,則不會根據數據調整先驗。

min_categoriesint 或類似數組的形狀 (n_features,),默認=無

每個特征的最小類別數。

  • integer:將每個特征的最小類別數設置為每個特征的n_categories
  • 類似數組:形狀 (n_features,) 其中 n_categories[i] 保存輸入第 i 列的最小類別數。
  • 無(默認):根據訓練數據自動確定類別數。

屬性

category_count_形狀數組列表 (n_features,)

保存每個特征的形狀數組(n_classes,n_categories 的相應特征)。每個數組提供特定特征的每個類別和類別遇到的樣本數量。

class_count_ndarray 形狀 (n_classes,)

擬合期間每個類遇到的樣本數。該值在提供時按樣品重量加權。

class_log_prior_ndarray 形狀 (n_classes,)

每個類別的平滑經驗對數概率。

classes_ndarray 形狀 (n_classes,)

分類器已知的類標簽

feature_log_prob_形狀數組列表 (n_features,)

保存每個特征的形狀數組(n_classes,n_categories 的相應特征)。每個數組提供給定相應特征和類別的類別的經驗對數概率,P(x_i|y)

n_features_int

已棄用:屬性 n_features_ 在版本 1.0 中已棄用,並將在 1.2 中刪除。

n_features_in_int

擬合期間看到的特征數。

feature_names_in_ndarray 形狀(n_features_in_,)

擬合期間看到的特征名稱。僅當 X 具有全為字符串的函數名稱時才定義。

n_categories_ndarray 形狀 (n_features,), dtype=np.int64

每個函數的類別數。該值是從數據中推斷出來的或由最小類別數設置的。

例子

>>> import numpy as np
>>> rng = np.random.RandomState(1)
>>> X = rng.randint(5, size=(6, 100))
>>> y = np.array([1, 2, 3, 4, 5, 6])
>>> from sklearn.naive_bayes import CategoricalNB
>>> clf = CategoricalNB()
>>> clf.fit(X, y)
CategoricalNB()
>>> print(clf.predict(X[2:3]))
[3]

相關用法


注:本文由純淨天空篩選整理自scikit-learn.org大神的英文原創作品 sklearn.naive_bayes.CategoricalNB。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。