当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python sklearn Perceptron用法及代码示例


本文简要介绍python语言中 sklearn.linear_model.Perceptron 的用法。

用法:

class sklearn.linear_model.Perceptron(*, penalty=None, alpha=0.0001, l1_ratio=0.15, fit_intercept=True, max_iter=1000, tol=0.001, shuffle=True, verbose=0, eta0=1.0, n_jobs=None, random_state=0, early_stopping=False, validation_fraction=0.1, n_iter_no_change=5, class_weight=None, warm_start=False)

线性感知器分类器。

在用户指南中阅读更多信息。

参数

penalty{‘l2’,'l1','elasticnet'},默认=无

要使用的惩罚(又名正则化项)。

alpha浮点数,默认=0.0001

如果使用正则化,则乘以正则化项的常数。

l1_ratio浮点数,默认=0.15

弹性网络混合参数,带有 0 <= l1_ratio <= 1l1_ratio=0 对应 L2 惩罚,l1_ratio=1 对应 L1。仅在 penalty='elasticnet' 时使用。

fit_intercept布尔,默认=真

是否应该估计截距。如果为 False,则假定数据已经居中。

max_iter整数,默认=1000

训练数据的最大传递次数(又名 epochs)。它只影响fit 方法中的行为,而不影响partial_fit 方法中的行为。

tol浮点数,默认=1e-3

停止标准。如果不是 None,迭代将在 (loss > previous_loss - tol) 时停止。

shuffle布尔,默认=真

是否应该在每个 epoch 之后对训练数据进行洗牌。

verbose整数,默认=0

详细程度。

eta0浮点数,默认=1

更新乘以的常数。

n_jobs整数,默认=无

用于进行 OVA(One Versus All,针对多类问题)计算的 CPU 数量。 None 表示 1,除非在 joblib.parallel_backend 上下文中。 -1 表示使用所有处理器。有关更多详细信息,请参阅术语表。

random_stateint,RandomState 实例,默认=无

shuffle 设置为 True 时,用于对训练数据进行洗牌。传递 int 以获得跨多个函数调用的可重现输出。请参阅词汇表。

early_stopping布尔,默认=假

验证时是否使用提前停止终止训练。分数没有提高。如果设置为 True,它将自动将训练数据的分层部分留作验证,并在验证分数没有至少提高 n_iter_no_change 个连续 epoch 时终止训练。

validation_fraction浮点数,默认=0.1

留出作为提前停止验证集的训练数据的比例。必须介于 0 和 1 之间。仅在 early_stopping 为 True 时使用。

n_iter_no_change整数,默认=5

在提前停止之前等待没有改进的迭代次数。

class_weightdict, {class_label: weight} 或 “balanced”, 默认=无

class_weight 拟合参数的预设。

与类相关的权重。如果没有给出,所有的类都应该有一个权重。

“balanced” 模式使用 y 的值自动调整与输入数据中的类频率成反比的权重,如 n_samples / (n_classes * np.bincount(y))

warm_start布尔,默认=假

当设置为 True 时,重用之前调用的解决方案作为初始化,否则,只需擦除之前的解决方案。请参阅词汇表。

属性

classes_ndarray 形状 (n_classes,)

唯一的类标签。

coef_ndarray of shape (1, n_features) if n_classes == 2 else (n_classes, n_features)

分配给特征的权重。

intercept_ndarray 形状 (1,) if n_classes == 2 else (n_classes,)

决策函数中的常数。

loss_function_混凝土LossFunction

确定算法输出与目标值之间的损失或差异的函数。

n_features_in_int

拟合期间看到的特征数。

feature_names_in_ndarray 形状(n_features_in_,)

拟合期间看到的特征名称。仅当 X 具有全为字符串的函数名称时才定义。

n_iter_int

达到停止标准的实际迭代次数。对于多类拟合,它是每个二元拟合的最大值。

t_int

训练期间执行的权重更新次数。与 (n_iter_ * n_samples) 相同。

注意

Perceptron 是一种分类算法,它与 SGDClassifier 共享相同的底层实现。事实上,Perceptron() 等价于 SGDClassifier(loss="perceptron", eta0=1, learning_rate="constant", penalty=None)

参考

https://en.wikipedia.org/wiki/Perceptron and references therein.

例子

>>> from sklearn.datasets import load_digits
>>> from sklearn.linear_model import Perceptron
>>> X, y = load_digits(return_X_y=True)
>>> clf = Perceptron(tol=1e-3, random_state=0)
>>> clf.fit(X, y)
Perceptron()
>>> clf.score(X, y)
0.939...

相关用法


注:本文由纯净天空筛选整理自scikit-learn.org大神的英文原创作品 sklearn.linear_model.Perceptron。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。