当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python sklearn lars_path_gram用法及代码示例


本文简要介绍python语言中 sklearn.linear_model.lars_path_gram 的用法。

用法:

sklearn.linear_model.lars_path_gram(Xy, Gram, *, n_samples, max_iter=500, alpha_min=0, method='lar', copy_X=True, eps=2.220446049250313e-16, copy_Gram=True, verbose=0, return_path=True, return_n_iter=False, positive=False)

lars_path 处于充分统计模式 [1]

case method='lasso' 的优化目标是:

(1 / (2 * n_samples)) * ||y - Xw||^2_2 + alpha * ||w||_1

在 method='lars' 的情况下,目标函数仅以隐式方程的形式已知(参见 [1] 中的讨论)

在用户指南中阅读更多信息。

参数

Xy形状为 (n_samples,) 或 (n_samples, n_targets) 的类似数组

Xy = np.dot(X.T, y)。

Gram形状类似数组 (n_features, n_features)

克 = np.dot(X.T * X)。

n_samplesint 或浮点数

样本的等效大小。

max_iter整数,默认=500

要执行的最大迭代次数,设置为无限无限制。

alpha_min浮点数,默认=0

沿路径的最小相关性。它对应于 Lasso 中的正则化参数 alpha 参数。

method{‘lar’, ‘lasso’},默认='lar'

指定返回的模型。为最小角度回归选择'lar',为套索选择'lasso'

copy_X布尔,默认=真

如果FalseX被覆盖。

eps浮点数,默认=np.finfo(float).eps

machine-precision 正则化计算 Cholesky 对角因子。为非常 ill-conditioned 的系统增加此值。与某些基于迭代优化的算法中的tol 参数不同,该参数不控制优化的容差。

copy_Gram布尔,默认=真

如果FalseGram被覆盖。

verbose整数,默认=0

控制输出详细程度。

return_path布尔,默认=真

如果 return_path==True 返回整个路径,否则仅返回路径的最后一个点。

return_n_iter布尔,默认=假

是否返回迭代次数。

positive布尔,默认=假

将系数限制为 >= 0。此选项仅适用于方法 ‘lasso’。请注意,对于较小的 alpha 值,模型系数不会收敛到 ordinary-least-squares 解。只有通过逐步Lars-Lasso算法达到的最小alpha值(alphas_[alphas_ > 0.].min(),当fit_path=True)的系数通常与坐标下降lasso_path函数的解一致。

返回

alphas形状类似数组 (n_alphas + 1,)

每次迭代的协方差最大值(绝对值)。 n_alphasmax_itern_featuresalpha >= alpha_min 路径中的节点数,以较小者为准。

active形状类似数组 (n_alphas,)

路径末端的活动变量的索引。

coefs形状类似数组 (n_features, n_alphas + 1)

沿路径的系数

n_iterint

运行的迭代次数。仅当 return_n_iter 设置为 True 时才返回。

参考

1

“Least Angle Regression”,埃夫隆等人。 http://statweb.stanford.edu/~tibs/ftp/lars.pdf

2

Least-angle 回归的维基百科条目

3

套索上的维基百科条目

相关用法


注:本文由纯净天空筛选整理自scikit-learn.org大神的英文原创作品 sklearn.linear_model.lars_path_gram。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。