本文简要介绍python语言中 sklearn.linear_model.LassoCV.path
的用法。
用法:
static path(X, y, *, eps=0.001, n_alphas=100, alphas=None, precompute='auto', Xy=None, copy_X=True, coef_init=None, verbose=False, return_n_iter=False, positive=False, **params)
使用坐标下降计算 Lasso 路径。
套索优化函数因单声道和multi-outputs 而异。
对于mono-output 任务,它是:
(1 / (2 * n_samples)) * ||y - Xw||^2_2 + alpha * ||w||_1
对于multi-output 任务,它是:
(1 / (2 * n_samples)) * ||Y - XW||^2_Fro + alpha * ||W||_21
其中:
||W||_21 = \sum_i \sqrt{\sum_j w_{ij}^2}
即每行的范数之和。
在用户指南中阅读更多信息。
- X:{类数组,稀疏矩阵},形状为 (n_samples, n_features)
训练数据。直接作为Fortran-contiguous 数据传递以避免不必要的内存重复。如果
y
是 mono-output 那么X
可以是稀疏的。- y:{类似数组的稀疏矩阵},形状为 (n_samples,) 或 (n_samples, n_targets)
目标值。
- eps:浮点数,默认=1e-3
路径的长度。
eps=1e-3
表示alpha_min / alpha_max = 1e-3
。- n_alphas:整数,默认=100
正则化路径上的 alpha 数量。
- alphas:ndarray,默认=无
计算模型的 alpha 列表。如果自动设置
None
alpha。- precompute:‘auto’,布尔型或类似数组的形状 (n_features, n_features),默认=’auto’
是否使用预先计算的 Gram 矩阵来加速计算。如果设置为
'auto'
,让我们决定。 Gram 矩阵也可以作为参数传递。- Xy:形状为 (n_features,) 或 (n_features, n_targets) 的类似数组,默认=无
Xy = np.dot(X.T, y) 可以预先计算。仅在预先计算了 Gram 矩阵时才有用。
- copy_X:布尔,默认=真
如果
True
,X 将被复制;否则,它可能会被覆盖。- coef_init:ndarray 形状 (n_features, ), 默认=None
系数的初始值。
- verbose:bool 或 int,默认 = False
详细程度。
- return_n_iter:布尔,默认=假
是否返回迭代次数。
- positive:布尔,默认=假
如果设置为 True,则强制系数为正。 (仅在
y.ndim == 1
时允许)。- **params:夸格斯
传递给坐标下降求解器的关键字参数。
- alphas:ndarray 形状 (n_alphas,)
沿着计算模型的路径的 alpha。
- coefs:ndarray 形状 (n_features, n_alphas) 或 (n_targets, n_features, n_alphas)
沿路径的系数。
- dual_gaps:ndarray 形状 (n_alphas,)
每个 alpha 优化结束时的对偶间隙。
- n_iters:int列表
坐标下降优化器为达到每个 alpha 的指定容差所采取的迭代次数。
参数:
返回:
注意:
例如,请参见例子/linear_model/plot_lasso_coordinate_descent_path.py.
为避免不必要的内存重复,fit 方法的 X 参数应直接作为 Fortran-contiguous numpy 数组传递。
请注意,在某些情况下,Lars 求解器实现此函数的速度可能要快得多。特别是,线性插值可用于检索lars_path输出的值之间的模型系数
例子:
比较 lasso_path 和 lars_path 与插值:
>>> import numpy as np >>> from sklearn.linear_model import lasso_path >>> X = np.array([[1, 2, 3.1], [2.3, 5.4, 4.3]]).T >>> y = np.array([1, 2, 3.1]) >>> # Use lasso_path to compute a coefficient path >>> _, coef_path, _ = lasso_path(X, y, alphas=[5., 1., .5]) >>> print(coef_path) [[0. 0. 0.46874778] [0.2159048 0.4425765 0.23689075]]
>>> # Now use lars_path and 1D linear interpolation to compute the >>> # same path >>> from sklearn.linear_model import lars_path >>> alphas, active, coef_path_lars = lars_path(X, y, method='lasso') >>> from scipy import interpolate >>> coef_path_continuous = interpolate.interp1d(alphas[::-1], ... coef_path_lars[:, ::-1]) >>> print(coef_path_continuous([5., 1., .5])) [[0. 0. 0.46915237] [0.2159048 0.4425765 0.23668876]]
相关用法
- Python sklearn LassoCV用法及代码示例
- Python sklearn Lasso用法及代码示例
- Python sklearn LassoLars用法及代码示例
- Python sklearn LassoLarsIC用法及代码示例
- Python sklearn LassoLarsCV用法及代码示例
- Python sklearn Lasso.path用法及代码示例
- Python sklearn LarsCV用法及代码示例
- Python sklearn Lars用法及代码示例
- Python sklearn LabelPropagation用法及代码示例
- Python sklearn LabelSpreading用法及代码示例
- Python sklearn LabelEncoder用法及代码示例
- Python sklearn LabelBinarizer用法及代码示例
- Python sklearn LatentDirichletAllocation用法及代码示例
- Python sklearn LocalOutlierFactor.kneighbors_graph用法及代码示例
- Python sklearn LeavePOut用法及代码示例
- Python sklearn LeaveOneOut用法及代码示例
- Python sklearn LogisticRegression用法及代码示例
- Python sklearn LocallyLinearEmbedding用法及代码示例
- Python sklearn LedoitWolf用法及代码示例
- Python sklearn LogisticRegressionCV用法及代码示例
- Python sklearn LinearDiscriminantAnalysis用法及代码示例
- Python sklearn LinearRegression用法及代码示例
- Python sklearn LocalOutlierFactor.kneighbors用法及代码示例
- Python sklearn LinearSVR用法及代码示例
- Python sklearn LinearSVC用法及代码示例
注:本文由纯净天空筛选整理自scikit-learn.org大神的英文原创作品 sklearn.linear_model.LassoCV.path。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。