当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python sklearn PassiveAggressiveRegressor用法及代码示例


本文简要介绍python语言中 sklearn.linear_model.PassiveAggressiveRegressor 的用法。

用法:

sklearn.linear_model.PassiveAggressiveRegressor(*, C=1.0, fit_intercept=True, max_iter=1000, tol=0.001, early_stopping=False, validation_fraction=0.1, n_iter_no_change=5, shuffle=True, verbose=0, loss='epsilon_insensitive', epsilon=0.1, random_state=None, warm_start=False, average=False)

被动进取回归器。

在用户指南中阅读更多信息。

参数

C浮点数,默认=1.0

最大步长(正则化)。默认为 1.0。

fit_intercept布尔,默认=真

是否应该估计截距。如果为 False,则假定数据已经居中。默认为真。

max_iter整数,默认=1000

训练数据的最大传递次数(又名 epochs)。它只影响fit 方法中的行为,而不影响partial_fit 方法中的行为。

tol浮点数或无,默认=1e-3

停止标准。如果不是 None,迭代将在 (loss > previous_loss - tol) 时停止。

early_stopping布尔,默认=假

验证时是否使用提前停止终止训练。分数没有提高。如果设置为 True,它将自动留出一小部分训练数据作为验证,并在验证分数没有至少提高 n_iter_no_change 个连续 epoch 时终止训练。

validation_fraction浮点数,默认=0.1

留出作为提前停止验证集的训练数据的比例。必须介于 0 和 1 之间。仅在 early_stopping 为 True 时使用。

n_iter_no_change整数,默认=5

在提前停止之前等待没有改进的迭代次数。

shuffle布尔,默认=真

是否应该在每个 epoch 之后对训练数据进行洗牌。

verbose整数,默认=0

详细程度。

lossstr,默认=”epsilon_insensitive”

要使用的损失函数:epsilon_insensitive:相当于参考论文中的PA-I。 squared_epsilon_insensitive:相当于参考论文中的PA-II。

epsilon浮点数,默认=0.1

如果当前预测与正确标签之间的差异低于此阈值,则不会更新模型。

random_stateint,RandomState 实例,默认=无

shuffle 设置为 True 时,用于对训练数据进行洗牌。传递 int 以获得跨多个函数调用的可重现输出。请参阅词汇表。

warm_start布尔,默认=假

当设置为 True 时,重用之前调用的解决方案作为初始化,否则,只需擦除之前的解决方案。请参阅词汇表。

当 warm_start 为 True 时重复调用 fit 或 partial_fit 可能会导致与单次调用 fit 时不同的解决方案,因为数据被打乱的方式。

averagebool 或 int,默认 = False

当设置为 True 时,计算平均 SGD 权重并将结果存储在 coef_ 属性中。如果设置为大于 1 的 int,则一旦看到的样本总数达到平均值,就会开始平均。所以 average=10 将在看到 10 个样本后开始平均。

属性

coef_数组,形状 = [1, n_features] 如果 n_classes == 2 否则 [n_classes, n_features]

分配给特征的权重。

intercept_数组,形状 = [1] 如果 n_classes == 2 否则 [n_classes]

决策函数中的常数。

n_features_in_int

拟合期间看到的特征数。

feature_names_in_ndarray 形状(n_features_in_,)

拟合期间看到的特征名称。仅当 X 具有全为字符串的函数名称时才定义。

n_iter_int

达到停止标准的实际迭代次数。

t_int

训练期间执行的权重更新次数。与 (n_iter_ * n_samples) 相同。

参考

在线Passive-Aggressive算法<http://jmlr.csail.mit.edu/papers/volume7/crammer06a/crammer06a.pdf> K. Crammer、O. Dekel、J. Keshat、S. Shalev-Shwartz、Y. Singer - JMLR (2006)。

例子

>>> from sklearn.linear_model import PassiveAggressiveRegressor
>>> from sklearn.datasets import make_regression
>>> X, y = make_regression(n_features=4, random_state=0)
>>> regr = PassiveAggressiveRegressor(max_iter=100, random_state=0,
... tol=1e-3)
>>> regr.fit(X, y)
PassiveAggressiveRegressor(max_iter=100, random_state=0)
>>> print(regr.coef_)
[20.48736655 34.18818427 67.59122734 87.94731329]
>>> print(regr.intercept_)
[-0.02306214]
>>> print(regr.predict([[0, 0, 0, 0]]))
[-0.02306214]

相关用法


注:本文由纯净天空筛选整理自scikit-learn.org大神的英文原创作品 sklearn.linear_model.PassiveAggressiveRegressor。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。