本文简要介绍python语言中 sklearn.linear_model.PassiveAggressiveRegressor
的用法。
用法:
sklearn.linear_model.PassiveAggressiveRegressor(*, C=1.0, fit_intercept=True, max_iter=1000, tol=0.001, early_stopping=False, validation_fraction=0.1, n_iter_no_change=5, shuffle=True, verbose=0, loss='epsilon_insensitive', epsilon=0.1, random_state=None, warm_start=False, average=False)
被动进取回归器。
在用户指南中阅读更多信息。
- C:浮点数,默认=1.0
最大步长(正则化)。默认为 1.0。
- fit_intercept:布尔,默认=真
是否应该估计截距。如果为 False,则假定数据已经居中。默认为真。
- max_iter:整数,默认=1000
训练数据的最大传递次数(又名 epochs)。它只影响
fit
方法中的行为,而不影响partial_fit
方法中的行为。- tol:浮点数或无,默认=1e-3
停止标准。如果不是 None,迭代将在 (loss > previous_loss - tol) 时停止。
- early_stopping:布尔,默认=假
验证时是否使用提前停止终止训练。分数没有提高。如果设置为 True,它将自动留出一小部分训练数据作为验证,并在验证分数没有至少提高 n_iter_no_change 个连续 epoch 时终止训练。
- validation_fraction:浮点数,默认=0.1
留出作为提前停止验证集的训练数据的比例。必须介于 0 和 1 之间。仅在 early_stopping 为 True 时使用。
- n_iter_no_change:整数,默认=5
在提前停止之前等待没有改进的迭代次数。
- shuffle:布尔,默认=真
是否应该在每个 epoch 之后对训练数据进行洗牌。
- verbose:整数,默认=0
详细程度。
- loss:str,默认=”epsilon_insensitive”
要使用的损失函数:epsilon_insensitive:相当于参考论文中的PA-I。 squared_epsilon_insensitive:相当于参考论文中的PA-II。
- epsilon:浮点数,默认=0.1
如果当前预测与正确标签之间的差异低于此阈值,则不会更新模型。
- random_state:int,RandomState 实例,默认=无
当
shuffle
设置为True
时,用于对训练数据进行洗牌。传递 int 以获得跨多个函数调用的可重现输出。请参阅词汇表。- warm_start:布尔,默认=假
当设置为 True 时,重用之前调用的解决方案作为初始化,否则,只需擦除之前的解决方案。请参阅词汇表。
当 warm_start 为 True 时重复调用 fit 或 partial_fit 可能会导致与单次调用 fit 时不同的解决方案,因为数据被打乱的方式。
- average:bool 或 int,默认 = False
当设置为 True 时,计算平均 SGD 权重并将结果存储在
coef_
属性中。如果设置为大于 1 的 int,则一旦看到的样本总数达到平均值,就会开始平均。所以 average=10 将在看到 10 个样本后开始平均。
- coef_:数组,形状 = [1, n_features] 如果 n_classes == 2 否则 [n_classes, n_features]
分配给特征的权重。
- intercept_:数组,形状 = [1] 如果 n_classes == 2 否则 [n_classes]
决策函数中的常数。
- n_features_in_:int
拟合期间看到的特征数。
- feature_names_in_:ndarray 形状(
n_features_in_
,) 拟合期间看到的特征名称。仅当
X
具有全为字符串的函数名称时才定义。- n_iter_:int
达到停止标准的实际迭代次数。
- t_:int
训练期间执行的权重更新次数。与
(n_iter_ * n_samples)
相同。
参数:
属性:
参考:
在线Passive-Aggressive算法<http://jmlr.csail.mit.edu/papers/volume7/crammer06a/crammer06a.pdf> K. Crammer、O. Dekel、J. Keshat、S. Shalev-Shwartz、Y. Singer - JMLR (2006)。
例子:
>>> from sklearn.linear_model import PassiveAggressiveRegressor >>> from sklearn.datasets import make_regression
>>> X, y = make_regression(n_features=4, random_state=0) >>> regr = PassiveAggressiveRegressor(max_iter=100, random_state=0, ... tol=1e-3) >>> regr.fit(X, y) PassiveAggressiveRegressor(max_iter=100, random_state=0) >>> print(regr.coef_) [20.48736655 34.18818427 67.59122734 87.94731329] >>> print(regr.intercept_) [-0.02306214] >>> print(regr.predict([[0, 0, 0, 0]])) [-0.02306214]
相关用法
- Python sklearn PassiveAggressiveClassifier用法及代码示例
- Python sklearn ParameterGrid用法及代码示例
- Python sklearn PatchExtractor用法及代码示例
- Python sklearn PairwiseKernel用法及代码示例
- Python sklearn ParameterSampler用法及代码示例
- Python sklearn PartialDependenceDisplay.from_estimator用法及代码示例
- Python sklearn PowerTransformer.inverse_transform用法及代码示例
- Python sklearn PredefinedSplit用法及代码示例
- Python sklearn PolynomialFeatures用法及代码示例
- Python sklearn Product用法及代码示例
- Python sklearn PLSRegression用法及代码示例
- Python sklearn PrecisionRecallDisplay.from_predictions用法及代码示例
- Python sklearn PrecisionRecallDisplay用法及代码示例
- Python sklearn PCA用法及代码示例
- Python sklearn PrecisionRecallDisplay.from_estimator用法及代码示例
- Python sklearn Perceptron用法及代码示例
- Python sklearn PLSSVD用法及代码示例
- Python sklearn PLSCanonical用法及代码示例
- Python sklearn Pipeline用法及代码示例
- Python sklearn PowerTransformer用法及代码示例
- Python sklearn PolynomialCountSketch用法及代码示例
- Python sklearn PoissonRegressor用法及代码示例
- Python sklearn jaccard_score用法及代码示例
- Python sklearn WhiteKernel用法及代码示例
- Python sklearn CalibrationDisplay.from_predictions用法及代码示例
注:本文由纯净天空筛选整理自scikit-learn.org大神的英文原创作品 sklearn.linear_model.PassiveAggressiveRegressor。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。