本文简要介绍python语言中 sklearn.ensemble.AdaBoostRegressor
的用法。
用法:
class sklearn.ensemble.AdaBoostRegressor(base_estimator=None, *, n_estimators=50, learning_rate=1.0, loss='linear', random_state=None)
AdaBoost 回归量。
AdaBoost [1] 回归器是一个 meta-estimator,它首先在原始数据集上拟合回归器,然后在同一数据集上拟合回归器的其他副本,但实例的权重会根据当前的误差进行调整预言。因此,后续的回归器更多地关注困难的案例。
此类实现称为 AdaBoost.R2 [2] 的算法。
在用户指南中阅读更多信息。
- base_estimator:对象,默认=无
构建增强集成的基本估计器。如果
None
,则基本估计量是DecisionTreeRegressor
用max_depth=3
初始化。- n_estimators:整数,默认=50
终止提升的估计器的最大数量。在完美契合的情况下,学习过程会提前停止。
- learning_rate:浮点数,默认=1.0
在每次提升迭代中应用于每个回归器的权重。更高的学习率会增加每个回归器的贡献。
learning_rate
和n_estimators
参数之间存在折衷。- loss:{‘linear’, ‘square’, ‘exponential’},默认='线性'
每次提升迭代后更新权重时使用的损失函数。
- random_state:int、RandomState 实例或无,默认=无
在每次提升迭代中控制在每个
base_estimator
处给出的随机种子。因此,它仅在base_estimator
公开random_state
时使用。此外,它还控制每次提升迭代中用于训练base_estimator
的权重的引导。传递 int 以获得跨多个函数调用的可重现输出。请参阅词汇表。
- base_estimator_:估计器
生成集成的基本估计量。
- estimators_:回归器列表
拟合sub-estimators 的集合。
- estimator_weights_:浮点数数组
增强集成中每个估计器的权重。
- estimator_errors_:浮点数数组
增强集成中每个估计器的回归误差。
feature_importances_
ndarray 形状 (n_features,)基于杂质的特征重要性。
- n_features_in_:int
拟合期间看到的特征数。
- feature_names_in_:ndarray 形状(
n_features_in_
,) 拟合期间看到的特征名称。仅当
X
具有全为字符串的函数名称时才定义。
参数:
属性:
参考:
- 1
Y. Freund, R. Schapire,“on-Line 学习的 Decision-Theoretic 泛化和提升的应用”,1995 年。
- 2
Drucker,“使用 Boosting 技术改进回归量”,1997 年。
例子:
>>> from sklearn.ensemble import AdaBoostRegressor >>> from sklearn.datasets import make_regression >>> X, y = make_regression(n_features=4, n_informative=2, ... random_state=0, shuffle=False) >>> regr = AdaBoostRegressor(random_state=0, n_estimators=100) >>> regr.fit(X, y) AdaBoostRegressor(n_estimators=100, random_state=0) >>> regr.predict([[0, 0, 0, 0]]) array([4.7972...]) >>> regr.score(X, y) 0.9771...
相关用法
- Python sklearn AdaBoostClassifier用法及代码示例
- Python sklearn AdditiveChi2Sampler用法及代码示例
- Python sklearn AffinityPropagation用法及代码示例
- Python sklearn ARDRegression用法及代码示例
- Python sklearn AgglomerativeClustering用法及代码示例
- Python sklearn jaccard_score用法及代码示例
- Python sklearn WhiteKernel用法及代码示例
- Python sklearn CalibrationDisplay.from_predictions用法及代码示例
- Python sklearn VotingRegressor用法及代码示例
- Python sklearn gen_batches用法及代码示例
- Python sklearn ExpSineSquared用法及代码示例
- Python sklearn MDS用法及代码示例
- Python sklearn adjusted_rand_score用法及代码示例
- Python sklearn MLPClassifier用法及代码示例
- Python sklearn train_test_split用法及代码示例
- Python sklearn RandomTreesEmbedding用法及代码示例
- Python sklearn GradientBoostingRegressor用法及代码示例
- Python sklearn GridSearchCV用法及代码示例
- Python sklearn log_loss用法及代码示例
- Python sklearn r2_score用法及代码示例
- Python sklearn ndcg_score用法及代码示例
- Python sklearn ShrunkCovariance用法及代码示例
- Python sklearn SelfTrainingClassifier用法及代码示例
- Python sklearn load_svmlight_file用法及代码示例
- Python sklearn make_pipeline用法及代码示例
注:本文由纯净天空筛选整理自scikit-learn.org大神的英文原创作品 sklearn.ensemble.AdaBoostRegressor。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。