当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python sklearn TweedieRegressor用法及代码示例


本文简要介绍python语言中 sklearn.linear_model.TweedieRegressor 的用法。

用法:

class sklearn.linear_model.TweedieRegressor(*, power=0.0, alpha=1.0, fit_intercept=True, link='auto', max_iter=100, tol=0.0001, warm_start=False, verbose=0)

具有 Tweedie 分布的广义线性模型。

此估计器可用于根据 power 参数对不同的 GLM 进行建模,该参数决定了基础分布。

在用户指南中阅读更多信息。

参数

power浮点数,默认=0

幂根据下表确定底层目标分布:

力量

分配

0

Normal

1

Poisson

(1,2)

复合泊松伽玛

2

Gamma

3

逆高斯

对于 0 < power < 1 ,不存在分发。

alpha浮点数,默认=1

乘以惩罚项的常数,从而确定正则化强度。 alpha = 0 相当于未受惩罚的 GLM。在这种情况下,设计矩阵X 必须具有完整的列秩(无共线性)。

fit_intercept布尔,默认=真

指定是否应将常数(也称为偏差或截距)添加到线性预测变量(X @ coef + 截距)。

link{‘auto’, ‘identity’, ‘log’},默认='自动'

GLM 的链接函数,即从线性预测器 X @ coeff + intercept 映射到预测器 y_pred 。选项 ‘auto’ 根据所选系列设置链接,如下所示:

  • ‘identity’ 用于正态分布
  • ‘log’ 用于泊松、伽玛和逆高斯分布
max_iter整数,默认=100

求解器的最大迭代次数。

tol浮点数,默认=1e-4

停止标准。对于 lbfgs 求解器,迭代将在 max{|g_j|, j = 1, ..., d} <= tol 时停止,其中 g_j 是目标函数梯度(导数)的 j-th 分量。

warm_start布尔,默认=假

如果设置为 True ,则重用之前调用 fit 的解决方案作为 coef_intercept_ 的初始化。

verbose整数,默认=0

对于 lbfgs 求解器,将详细设置为任何正数以表示详细程度。

属性

coef_形状数组(n_features,)

GLM 中线性预测器 (X @ coef_ + intercept_) 的估计系数。

intercept_浮点数

添加到线性预测器的截距(也称为偏差)。

n_iter_int

求解器中使用的实际迭代次数。

n_features_in_int

拟合期间看到的特征数。

feature_names_in_ndarray 形状(n_features_in_,)

拟合期间看到的特征名称。仅当 X 具有全为字符串的函数名称时才定义。

例子

>>> from sklearn import linear_model
>>> clf = linear_model.TweedieRegressor()
>>> X = [[1, 2], [2, 3], [3, 4], [4, 3]]
>>> y = [2, 3.5, 5, 5.5]
>>> clf.fit(X, y)
TweedieRegressor()
>>> clf.score(X, y)
0.839...
>>> clf.coef_
array([0.599..., 0.299...])
>>> clf.intercept_
1.600...
>>> clf.predict([[1, 1], [3, 4]])
array([2.500..., 4.599...])

相关用法


注:本文由纯净天空筛选整理自scikit-learn.org大神的英文原创作品 sklearn.linear_model.TweedieRegressor。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。