本文簡要介紹python語言中 sklearn.ensemble.AdaBoostRegressor
的用法。
用法:
class sklearn.ensemble.AdaBoostRegressor(base_estimator=None, *, n_estimators=50, learning_rate=1.0, loss='linear', random_state=None)
AdaBoost 回歸量。
AdaBoost [1] 回歸器是一個 meta-estimator,它首先在原始數據集上擬合回歸器,然後在同一數據集上擬合回歸器的其他副本,但實例的權重會根據當前的誤差進行調整預言。因此,後續的回歸器更多地關注困難的案例。
此類實現稱為 AdaBoost.R2 [2] 的算法。
在用戶指南中閱讀更多信息。
- base_estimator:對象,默認=無
構建增強集成的基本估計器。如果
None
,則基本估計量是DecisionTreeRegressor
用max_depth=3
初始化。- n_estimators:整數,默認=50
終止提升的估計器的最大數量。在完美契合的情況下,學習過程會提前停止。
- learning_rate:浮點數,默認=1.0
在每次提升迭代中應用於每個回歸器的權重。更高的學習率會增加每個回歸器的貢獻。
learning_rate
和n_estimators
參數之間存在折衷。- loss:{‘linear’, ‘square’, ‘exponential’},默認='線性'
每次提升迭代後更新權重時使用的損失函數。
- random_state:int、RandomState 實例或無,默認=無
在每次提升迭代中控製在每個
base_estimator
處給出的隨機種子。因此,它僅在base_estimator
公開random_state
時使用。此外,它還控製每次提升迭代中用於訓練base_estimator
的權重的引導。傳遞 int 以獲得跨多個函數調用的可重現輸出。請參閱詞匯表。
- base_estimator_:估計器
生成集成的基本估計量。
- estimators_:回歸器列表
擬合sub-estimators 的集合。
- estimator_weights_:浮點數數組
增強集成中每個估計器的權重。
- estimator_errors_:浮點數數組
增強集成中每個估計器的回歸誤差。
feature_importances_
ndarray 形狀 (n_features,)基於雜質的特征重要性。
- n_features_in_:int
擬合期間看到的特征數。
- feature_names_in_:ndarray 形狀(
n_features_in_
,) 擬合期間看到的特征名稱。僅當
X
具有全為字符串的函數名稱時才定義。
參數:
屬性:
參考:
- 1
Y. Freund, R. Schapire,“on-Line 學習的 Decision-Theoretic 泛化和提升的應用”,1995 年。
- 2
Drucker,“使用 Boosting 技術改進回歸量”,1997 年。
例子:
>>> from sklearn.ensemble import AdaBoostRegressor >>> from sklearn.datasets import make_regression >>> X, y = make_regression(n_features=4, n_informative=2, ... random_state=0, shuffle=False) >>> regr = AdaBoostRegressor(random_state=0, n_estimators=100) >>> regr.fit(X, y) AdaBoostRegressor(n_estimators=100, random_state=0) >>> regr.predict([[0, 0, 0, 0]]) array([4.7972...]) >>> regr.score(X, y) 0.9771...
相關用法
- Python sklearn AdaBoostClassifier用法及代碼示例
- Python sklearn AdditiveChi2Sampler用法及代碼示例
- Python sklearn AffinityPropagation用法及代碼示例
- Python sklearn ARDRegression用法及代碼示例
- Python sklearn AgglomerativeClustering用法及代碼示例
- Python sklearn jaccard_score用法及代碼示例
- Python sklearn WhiteKernel用法及代碼示例
- Python sklearn CalibrationDisplay.from_predictions用法及代碼示例
- Python sklearn VotingRegressor用法及代碼示例
- Python sklearn gen_batches用法及代碼示例
- Python sklearn ExpSineSquared用法及代碼示例
- Python sklearn MDS用法及代碼示例
- Python sklearn adjusted_rand_score用法及代碼示例
- Python sklearn MLPClassifier用法及代碼示例
- Python sklearn train_test_split用法及代碼示例
- Python sklearn RandomTreesEmbedding用法及代碼示例
- Python sklearn GradientBoostingRegressor用法及代碼示例
- Python sklearn GridSearchCV用法及代碼示例
- Python sklearn log_loss用法及代碼示例
- Python sklearn r2_score用法及代碼示例
- Python sklearn ndcg_score用法及代碼示例
- Python sklearn ShrunkCovariance用法及代碼示例
- Python sklearn SelfTrainingClassifier用法及代碼示例
- Python sklearn load_svmlight_file用法及代碼示例
- Python sklearn make_pipeline用法及代碼示例
注:本文由純淨天空篩選整理自scikit-learn.org大神的英文原創作品 sklearn.ensemble.AdaBoostRegressor。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。