當前位置: 首頁>>代碼示例 >>用法及示例精選 >>正文


Python sklearn TweedieRegressor用法及代碼示例


本文簡要介紹python語言中 sklearn.linear_model.TweedieRegressor 的用法。

用法:

class sklearn.linear_model.TweedieRegressor(*, power=0.0, alpha=1.0, fit_intercept=True, link='auto', max_iter=100, tol=0.0001, warm_start=False, verbose=0)

具有 Tweedie 分布的廣義線性模型。

此估計器可用於根據 power 參數對不同的 GLM 進行建模,該參數決定了基礎分布。

在用戶指南中閱讀更多信息。

參數

power浮點數,默認=0

冪根據下表確定底層目標分布:

力量

分配

0

Normal

1

Poisson

(1,2)

複合泊鬆伽瑪

2

Gamma

3

逆高斯

對於 0 < power < 1 ,不存在分發。

alpha浮點數,默認=1

乘以懲罰項的常數,從而確定正則化強度。 alpha = 0 相當於未受懲罰的 GLM。在這種情況下,設計矩陣X 必須具有完整的列秩(無共線性)。

fit_intercept布爾,默認=真

指定是否應將常數(也稱為偏差或截距)添加到線性預測變量(X @ coef + 截距)。

link{‘auto’, ‘identity’, ‘log’},默認='自動'

GLM 的鏈接函數,即從線性預測器 X @ coeff + intercept 映射到預測器 y_pred 。選項 ‘auto’ 根據所選係列設置鏈接,如下所示:

  • ‘identity’ 用於正態分布
  • ‘log’ 用於泊鬆、伽瑪和逆高斯分布
max_iter整數,默認=100

求解器的最大迭代次數。

tol浮點數,默認=1e-4

停止標準。對於 lbfgs 求解器,迭代將在 max{|g_j|, j = 1, ..., d} <= tol 時停止,其中 g_j 是目標函數梯度(導數)的 j-th 分量。

warm_start布爾,默認=假

如果設置為 True ,則重用之前調用 fit 的解決方案作為 coef_intercept_ 的初始化。

verbose整數,默認=0

對於 lbfgs 求解器,將詳細設置為任何正數以表示詳細程度。

屬性

coef_形狀數組(n_features,)

GLM 中線性預測器 (X @ coef_ + intercept_) 的估計係數。

intercept_浮點數

添加到線性預測器的截距(也稱為偏差)。

n_iter_int

求解器中使用的實際迭代次數。

n_features_in_int

擬合期間看到的特征數。

feature_names_in_ndarray 形狀(n_features_in_,)

擬合期間看到的特征名稱。僅當 X 具有全為字符串的函數名稱時才定義。

例子

>>> from sklearn import linear_model
>>> clf = linear_model.TweedieRegressor()
>>> X = [[1, 2], [2, 3], [3, 4], [4, 3]]
>>> y = [2, 3.5, 5, 5.5]
>>> clf.fit(X, y)
TweedieRegressor()
>>> clf.score(X, y)
0.839...
>>> clf.coef_
array([0.599..., 0.299...])
>>> clf.intercept_
1.600...
>>> clf.predict([[1, 1], [3, 4]])
array([2.500..., 4.599...])

相關用法


注:本文由純淨天空篩選整理自scikit-learn.org大神的英文原創作品 sklearn.linear_model.TweedieRegressor。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。