本文简要介绍python语言中 sklearn.linear_model.Lars
的用法。
用法:
class sklearn.linear_model.Lars(*, fit_intercept=True, verbose=False, normalize='deprecated', precompute='auto', n_nonzero_coefs=500, eps=2.220446049250313e-16, copy_X=True, fit_path=True, jitter=None, random_state=None)
最小角回归模型又名 LAR。
在用户指南中阅读更多信息。
- fit_intercept:布尔,默认=真
是否计算此模型的截距。如果设置为 false,则不会在计算中使用截距(即数据应居中)。
- verbose:bool 或 int,默认 = False
设置详细程度。
- normalize:布尔,默认=真
当
fit_intercept
设置为 False 时忽略此参数。如果为 True,则回归量 X 将在回归前通过减去均值并除以 l2 范数进行归一化。如果您希望标准化,请在使用normalize=False
对估计器调用fit
之前使用StandardScaler
。- precompute:bool,‘auto’ 或类似数组,默认=’auto’
是否使用预先计算的 Gram 矩阵来加速计算。如果设置为
'auto'
,让我们决定。 Gram 矩阵也可以作为参数传递。- n_nonzero_coefs:整数,默认=500
非零系数的目标数量。使用
np.inf
没有限制。- eps:浮点数,默认=np.finfo(float).eps
machine-precision 正则化计算 Cholesky 对角因子。为非常 ill-conditioned 的系统增加此值。与某些基于迭代优化的算法中的
tol
参数不同,该参数不控制优化的容差。- copy_X:布尔,默认=真
如果
True
,X 将被复制;否则,它可能会被覆盖。- fit_path:布尔,默认=真
如果为 True,则完整路径存储在
coef_path_
属性中。如果您计算一个大问题或许多目标的解决方案,将fit_path
设置为False
将导致加速,尤其是在 alpha 较小的情况下。- jitter:浮点数,默认=无
要添加到
y
值的均匀噪声参数的上限,以满足模型对 one-at-a-time 计算的假设。可能有助于稳定性。- random_state:int、RandomState 实例或无,默认=无
确定抖动的随机数生成。传递 int 以在多个函数调用之间实现可重现的输出。请参阅术语表。如果
jitter
为 None,则忽略。
- alphas_:形状为 (n_alphas + 1,) 的类似数组或此类数组的列表
每次迭代的协方差最大值(绝对值)。
n_alphas
是max_iter
、n_features
或alpha >= alpha_min
路径中的节点数,以较小者为准。如果这是一个类似数组的列表,则外部列表的长度为n_targets
。- active_:形状列表 (n_alphas,) 或此类列表的列表
路径末端的活动变量的索引。如果这是列表列表,则外部列表的长度为
n_targets
。- coef_path_:形状类似数组 (n_features, n_alphas + 1) 或此类数组的列表
沿路径的系数值的变化。如果
fit_path
参数为False
,则该值不存在。如果这是一个类似数组的列表,则外部列表的长度为n_targets
。- coef_:形状为 (n_features,) 或 (n_targets, n_features) 的类似数组
参数向量(公式中的 w)。
- intercept_:形状为浮点或类似数组 (n_targets,)
决策函数中的独立项。
- n_iter_:类似数组或int
lars_path 为找到每个目标的 alpha 网格而进行的迭代次数。
- n_features_in_:int
拟合期间看到的特征数。
- feature_names_in_:ndarray 形状(
n_features_in_
,) 拟合期间看到的特征名称。仅当
X
具有全为字符串的函数名称时才定义。
参数:
属性:
例子:
>>> from sklearn import linear_model >>> reg = linear_model.Lars(n_nonzero_coefs=1, normalize=False) >>> reg.fit([[-1, 1], [0, 0], [1, 1]], [-1.1111, 0, -1.1111]) Lars(n_nonzero_coefs=1, normalize=False) >>> print(reg.coef_) [ 0. -1.11...]
相关用法
- Python sklearn LarsCV用法及代码示例
- Python sklearn Lasso用法及代码示例
- Python sklearn LabelPropagation用法及代码示例
- Python sklearn LassoLars用法及代码示例
- Python sklearn LassoLarsIC用法及代码示例
- Python sklearn LassoCV.path用法及代码示例
- Python sklearn LassoCV用法及代码示例
- Python sklearn LabelSpreading用法及代码示例
- Python sklearn LabelEncoder用法及代码示例
- Python sklearn LabelBinarizer用法及代码示例
- Python sklearn LassoLarsCV用法及代码示例
- Python sklearn LatentDirichletAllocation用法及代码示例
- Python sklearn Lasso.path用法及代码示例
- Python sklearn LocalOutlierFactor.kneighbors_graph用法及代码示例
- Python sklearn LeavePOut用法及代码示例
- Python sklearn LeaveOneOut用法及代码示例
- Python sklearn LogisticRegression用法及代码示例
- Python sklearn LocallyLinearEmbedding用法及代码示例
- Python sklearn LedoitWolf用法及代码示例
- Python sklearn LogisticRegressionCV用法及代码示例
- Python sklearn LinearDiscriminantAnalysis用法及代码示例
- Python sklearn LinearRegression用法及代码示例
- Python sklearn LocalOutlierFactor.kneighbors用法及代码示例
- Python sklearn LinearSVR用法及代码示例
- Python sklearn LinearSVC用法及代码示例
注:本文由纯净天空筛选整理自scikit-learn.org大神的英文原创作品 sklearn.linear_model.Lars。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。