当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python sklearn BayesianRidge用法及代码示例


本文简要介绍python语言中 sklearn.linear_model.BayesianRidge 的用法。

用法:

class sklearn.linear_model.BayesianRidge(*, n_iter=300, tol=0.001, alpha_1=1e-06, alpha_2=1e-06, lambda_1=1e-06, lambda_2=1e-06, alpha_init=None, lambda_init=None, compute_score=False, fit_intercept=True, normalize='deprecated', copy_X=True, verbose=False)

贝叶斯岭回归。

拟合贝叶斯岭模型。有关此实现的详细信息以及正则化参数 lambda(权重的精度)和 alpha(噪声的精度)的优化,请参阅注释部分。

在用户指南中阅读更多信息。

参数

n_iter整数,默认=300

最大迭代次数。应大于或等于 1。

tol浮点数,默认=1e-3

如果 w 已经收敛,则停止算法。

alpha_1浮点数,默认=1e-6

超参数:先于 alpha 参数的 Gamma 分布的形状参数。

alpha_2浮点数,默认=1e-6

超参数:先于 alpha 参数的 Gamma 分布的反比例参数(速率参数)。

lambda_1浮点数,默认=1e-6

超参数:先于 lambda 参数的 Gamma 分布的形状参数。

lambda_2浮点数,默认=1e-6

超参数:先于 lambda 参数的 Gamma 分布的反比例参数(速率参数)。

alpha_init浮点数,默认=无

alpha 的初始值(噪声的精度)。如果未设置,alpha_init 为 1/Var(y)。

lambda_init浮点数,默认=无

lambda 的初始值(权重的精度)。如果未设置,lambda_init 为 1。

compute_score布尔,默认=假

如果为 True,则在每次优化迭代中计算对数边际似然。

fit_intercept布尔,默认=真

是否计算此模型的截距。截距不被视为概率参数,因此没有相关的方差。如果设置为 False,则不会在计算中使用截距(即数据应居中)。

normalize布尔,默认=假

fit_intercept 设置为 False 时忽略此参数。如果为 True,则回归量 X 将在回归前通过减去均值并除以 l2 范数进行归一化。如果您希望标准化,请在使用 normalize=False 对估计器调用 fit 之前使用 StandardScaler

copy_X布尔,默认=真

如果为 True,则 X 将被复制;否则,它可能会被覆盖。

verbose布尔,默认=假

拟合模型时的详细模式。

属性

coef_形状类似数组 (n_features,)

回归模型的系数(分布均值)

intercept_浮点数

决策函数中的独立项。如果 fit_intercept = False 则设置为 0.0。

alpha_浮点数

估计的噪声精度。

lambda_浮点数

权重的估计精度。

sigma_形状类似数组 (n_features, n_features)

权重的估计方差-协方差矩阵

scores_形状类似数组 (n_iter_+1,)

如果computed_score 为真,则在优化的每次迭代中对数边际似然的值(将被最大化)。该数组以 alpha 和 lambda 的初始值获得的对数边际似然值开始,并以估计的 alpha 和 lambda 获得的值结束。

n_iter_int

达到停止标准的实际迭代次数。

X_offset_浮点数

如果 normalize=True ,则减去偏移量以使数据居中为零均值。

X_scale_浮点数

如果 normalize=True ,用于将数据缩放到单位标准偏差的参数。

n_features_in_int

拟合期间看到的特征数。

feature_names_in_ndarray 形状(n_features_in_,)

拟合期间看到的特征名称。仅当 X 具有全为字符串的函数名称时才定义。

注意

存在几种执行贝叶斯岭回归的策略。该实现基于(Tipping,2001)附录 A 中说明的算法,其中正则化参数的更新按照(MacKay,1992)中的建议进行。请注意,根据 A New View of Automatic Relevance Determination(Wipf 和 Nagarajan,2008 年),这些更新规则不能保证在优化的两个连续迭代之间边际似然增加。

参考

D. J. C. MacKay,贝叶斯插值、计算和神经系统,卷。 4,第 3 期,1992 年。

M. E. 小费,稀疏贝叶斯学习和相关向量机,机器学习研究杂志,卷。 1,2001 年。

例子

>>> from sklearn import linear_model
>>> clf = linear_model.BayesianRidge()
>>> clf.fit([[0,0], [1, 1], [2, 2]], [0, 1, 2])
BayesianRidge()
>>> clf.predict([[1, 1]])
array([1.])

相关用法


注:本文由纯净天空筛选整理自scikit-learn.org大神的英文原创作品 sklearn.linear_model.BayesianRidge。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。