本文简要介绍python语言中 sklearn.linear_model.BayesianRidge
的用法。
用法:
class sklearn.linear_model.BayesianRidge(*, n_iter=300, tol=0.001, alpha_1=1e-06, alpha_2=1e-06, lambda_1=1e-06, lambda_2=1e-06, alpha_init=None, lambda_init=None, compute_score=False, fit_intercept=True, normalize='deprecated', copy_X=True, verbose=False)
贝叶斯岭回归。
拟合贝叶斯岭模型。有关此实现的详细信息以及正则化参数 lambda(权重的精度)和 alpha(噪声的精度)的优化,请参阅注释部分。
在用户指南中阅读更多信息。
- n_iter:整数,默认=300
最大迭代次数。应大于或等于 1。
- tol:浮点数,默认=1e-3
如果 w 已经收敛,则停止算法。
- alpha_1:浮点数,默认=1e-6
超参数:先于 alpha 参数的 Gamma 分布的形状参数。
- alpha_2:浮点数,默认=1e-6
超参数:先于 alpha 参数的 Gamma 分布的反比例参数(速率参数)。
- lambda_1:浮点数,默认=1e-6
超参数:先于 lambda 参数的 Gamma 分布的形状参数。
- lambda_2:浮点数,默认=1e-6
超参数:先于 lambda 参数的 Gamma 分布的反比例参数(速率参数)。
- alpha_init:浮点数,默认=无
alpha 的初始值(噪声的精度)。如果未设置,alpha_init 为 1/Var(y)。
- lambda_init:浮点数,默认=无
lambda 的初始值(权重的精度)。如果未设置,lambda_init 为 1。
- compute_score:布尔,默认=假
如果为 True,则在每次优化迭代中计算对数边际似然。
- fit_intercept:布尔,默认=真
是否计算此模型的截距。截距不被视为概率参数,因此没有相关的方差。如果设置为 False,则不会在计算中使用截距(即数据应居中)。
- normalize:布尔,默认=假
当
fit_intercept
设置为 False 时忽略此参数。如果为 True,则回归量 X 将在回归前通过减去均值并除以 l2 范数进行归一化。如果您希望标准化,请在使用normalize=False
对估计器调用fit
之前使用StandardScaler
。- copy_X:布尔,默认=真
如果为 True,则 X 将被复制;否则,它可能会被覆盖。
- verbose:布尔,默认=假
拟合模型时的详细模式。
- coef_:形状类似数组 (n_features,)
回归模型的系数(分布均值)
- intercept_:浮点数
决策函数中的独立项。如果
fit_intercept = False
则设置为 0.0。- alpha_:浮点数
估计的噪声精度。
- lambda_:浮点数
权重的估计精度。
- sigma_:形状类似数组 (n_features, n_features)
权重的估计方差-协方差矩阵
- scores_:形状类似数组 (n_iter_+1,)
如果computed_score 为真,则在优化的每次迭代中对数边际似然的值(将被最大化)。该数组以 alpha 和 lambda 的初始值获得的对数边际似然值开始,并以估计的 alpha 和 lambda 获得的值结束。
- n_iter_:int
达到停止标准的实际迭代次数。
- X_offset_:浮点数
如果
normalize=True
,则减去偏移量以使数据居中为零均值。- X_scale_:浮点数
如果
normalize=True
,用于将数据缩放到单位标准偏差的参数。- n_features_in_:int
拟合期间看到的特征数。
- feature_names_in_:ndarray 形状(
n_features_in_
,) 拟合期间看到的特征名称。仅当
X
具有全为字符串的函数名称时才定义。
参数:
属性:
注意:
存在几种执行贝叶斯岭回归的策略。该实现基于(Tipping,2001)附录 A 中说明的算法,其中正则化参数的更新按照(MacKay,1992)中的建议进行。请注意,根据 A New View of Automatic Relevance Determination(Wipf 和 Nagarajan,2008 年),这些更新规则不能保证在优化的两个连续迭代之间边际似然增加。
参考:
D. J. C. MacKay,贝叶斯插值、计算和神经系统,卷。 4,第 3 期,1992 年。
M. E. 小费,稀疏贝叶斯学习和相关向量机,机器学习研究杂志,卷。 1,2001 年。
例子:
>>> from sklearn import linear_model >>> clf = linear_model.BayesianRidge() >>> clf.fit([[0,0], [1, 1], [2, 2]], [0, 1, 2]) BayesianRidge() >>> clf.predict([[1, 1]]) array([1.])
相关用法
- Python sklearn BayesianGaussianMixture用法及代码示例
- Python sklearn BallTree用法及代码示例
- Python sklearn BaggingRegressor用法及代码示例
- Python sklearn BaggingClassifier用法及代码示例
- Python sklearn Birch用法及代码示例
- Python sklearn BernoulliRBM用法及代码示例
- Python sklearn Bunch用法及代码示例
- Python sklearn BernoulliNB用法及代码示例
- Python sklearn Binarizer用法及代码示例
- Python sklearn jaccard_score用法及代码示例
- Python sklearn WhiteKernel用法及代码示例
- Python sklearn CalibrationDisplay.from_predictions用法及代码示例
- Python sklearn VotingRegressor用法及代码示例
- Python sklearn gen_batches用法及代码示例
- Python sklearn ExpSineSquared用法及代码示例
- Python sklearn MDS用法及代码示例
- Python sklearn adjusted_rand_score用法及代码示例
- Python sklearn MLPClassifier用法及代码示例
- Python sklearn train_test_split用法及代码示例
- Python sklearn RandomTreesEmbedding用法及代码示例
- Python sklearn GradientBoostingRegressor用法及代码示例
- Python sklearn GridSearchCV用法及代码示例
- Python sklearn log_loss用法及代码示例
- Python sklearn r2_score用法及代码示例
- Python sklearn ndcg_score用法及代码示例
注:本文由纯净天空筛选整理自scikit-learn.org大神的英文原创作品 sklearn.linear_model.BayesianRidge。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。