当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python sklearn CategoricalNB用法及代码示例


本文简要介绍python语言中 sklearn.naive_bayes.CategoricalNB 的用法。

用法:

class sklearn.naive_bayes.CategoricalNB(*, alpha=1.0, fit_prior=True, class_prior=None, min_categories=None)

用于分类特征的朴素贝叶斯分类器。

分类朴素贝叶斯分类器适用于具有分类分布的离散特征的分类。每个特征的类别都是从分类分布中得出的。

在用户指南中阅读更多信息。

参数

alpha浮点数,默认=1.0

Additive (Laplace/Lidstone) 平滑参数(0 表示无平滑)。

fit_prior布尔,默认=真

是否学习类先验概率。如果为 false,将使用统一的先验。

class_prior形状类似数组 (n_classes,),默认=无

类的先验概率。如果指定,则不会根据数据调整先验。

min_categoriesint 或类似数组的形状 (n_features,),默认=无

每个特征的最小类别数。

  • integer:将每个特征的最小类别数设置为每个特征的n_categories
  • 类似数组:形状 (n_features,) 其中 n_categories[i] 保存输入第 i 列的最小类别数。
  • 无(默认):根据训练数据自动确定类别数。

属性

category_count_形状数组列表 (n_features,)

保存每个特征的形状数组(n_classes,n_categories 的相应特征)。每个数组提供特定特征的每个类别和类别遇到的样本数量。

class_count_ndarray 形状 (n_classes,)

拟合期间每个类遇到的样本数。该值在提供时按样品重量加权。

class_log_prior_ndarray 形状 (n_classes,)

每个类别的平滑经验对数概率。

classes_ndarray 形状 (n_classes,)

分类器已知的类标签

feature_log_prob_形状数组列表 (n_features,)

保存每个特征的形状数组(n_classes,n_categories 的相应特征)。每个数组提供给定相应特征和类别的类别的经验对数概率,P(x_i|y)

n_features_int

已弃用:属性 n_features_ 在版本 1.0 中已弃用,并将在 1.2 中删除。

n_features_in_int

拟合期间看到的特征数。

feature_names_in_ndarray 形状(n_features_in_,)

拟合期间看到的特征名称。仅当 X 具有全为字符串的函数名称时才定义。

n_categories_ndarray 形状 (n_features,), dtype=np.int64

每个函数的类别数。该值是从数据中推断出来的或由最小类别数设置的。

例子

>>> import numpy as np
>>> rng = np.random.RandomState(1)
>>> X = rng.randint(5, size=(6, 100))
>>> y = np.array([1, 2, 3, 4, 5, 6])
>>> from sklearn.naive_bayes import CategoricalNB
>>> clf = CategoricalNB()
>>> clf.fit(X, y)
CategoricalNB()
>>> print(clf.predict(X[2:3]))
[3]

相关用法


注:本文由纯净天空筛选整理自scikit-learn.org大神的英文原创作品 sklearn.naive_bayes.CategoricalNB。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。