本文簡要介紹python語言中 sklearn.linear_model.Lars
的用法。
用法:
class sklearn.linear_model.Lars(*, fit_intercept=True, verbose=False, normalize='deprecated', precompute='auto', n_nonzero_coefs=500, eps=2.220446049250313e-16, copy_X=True, fit_path=True, jitter=None, random_state=None)
最小角回歸模型又名 LAR。
在用戶指南中閱讀更多信息。
- fit_intercept:布爾,默認=真
是否計算此模型的截距。如果設置為 false,則不會在計算中使用截距(即數據應居中)。
- verbose:bool 或 int,默認 = False
設置詳細程度。
- normalize:布爾,默認=真
當
fit_intercept
設置為 False 時忽略此參數。如果為 True,則回歸量 X 將在回歸前通過減去均值並除以 l2 範數進行歸一化。如果您希望標準化,請在使用normalize=False
對估計器調用fit
之前使用StandardScaler
。- precompute:bool,‘auto’ 或類似數組,默認=’auto’
是否使用預先計算的 Gram 矩陣來加速計算。如果設置為
'auto'
,讓我們決定。 Gram 矩陣也可以作為參數傳遞。- n_nonzero_coefs:整數,默認=500
非零係數的目標數量。使用
np.inf
沒有限製。- eps:浮點數,默認=np.finfo(float).eps
machine-precision 正則化計算 Cholesky 對角因子。為非常 ill-conditioned 的係統增加此值。與某些基於迭代優化的算法中的
tol
參數不同,該參數不控製優化的容差。- copy_X:布爾,默認=真
如果
True
,X 將被複製;否則,它可能會被覆蓋。- fit_path:布爾,默認=真
如果為 True,則完整路徑存儲在
coef_path_
屬性中。如果您計算一個大問題或許多目標的解決方案,將fit_path
設置為False
將導致加速,尤其是在 alpha 較小的情況下。- jitter:浮點數,默認=無
要添加到
y
值的均勻噪聲參數的上限,以滿足模型對 one-at-a-time 計算的假設。可能有助於穩定性。- random_state:int、RandomState 實例或無,默認=無
確定抖動的隨機數生成。傳遞 int 以在多個函數調用之間實現可重現的輸出。請參閱術語表。如果
jitter
為 None,則忽略。
- alphas_:形狀為 (n_alphas + 1,) 的類似數組或此類數組的列表
每次迭代的協方差最大值(絕對值)。
n_alphas
是max_iter
、n_features
或alpha >= alpha_min
路徑中的節點數,以較小者為準。如果這是一個類似數組的列表,則外部列表的長度為n_targets
。- active_:形狀列表 (n_alphas,) 或此類列表的列表
路徑末端的活動變量的索引。如果這是列表列表,則外部列表的長度為
n_targets
。- coef_path_:形狀類似數組 (n_features, n_alphas + 1) 或此類數組的列表
沿路徑的係數值的變化。如果
fit_path
參數為False
,則該值不存在。如果這是一個類似數組的列表,則外部列表的長度為n_targets
。- coef_:形狀為 (n_features,) 或 (n_targets, n_features) 的類似數組
參數向量(公式中的 w)。
- intercept_:形狀為浮點或類似數組 (n_targets,)
決策函數中的獨立項。
- n_iter_:類似數組或int
lars_path 為找到每個目標的 alpha 網格而進行的迭代次數。
- n_features_in_:int
擬合期間看到的特征數。
- feature_names_in_:ndarray 形狀(
n_features_in_
,) 擬合期間看到的特征名稱。僅當
X
具有全為字符串的函數名稱時才定義。
參數:
屬性:
例子:
>>> from sklearn import linear_model >>> reg = linear_model.Lars(n_nonzero_coefs=1, normalize=False) >>> reg.fit([[-1, 1], [0, 0], [1, 1]], [-1.1111, 0, -1.1111]) Lars(n_nonzero_coefs=1, normalize=False) >>> print(reg.coef_) [ 0. -1.11...]
相關用法
- Python sklearn LarsCV用法及代碼示例
- Python sklearn Lasso用法及代碼示例
- Python sklearn LabelPropagation用法及代碼示例
- Python sklearn LassoLars用法及代碼示例
- Python sklearn LassoLarsIC用法及代碼示例
- Python sklearn LassoCV.path用法及代碼示例
- Python sklearn LassoCV用法及代碼示例
- Python sklearn LabelSpreading用法及代碼示例
- Python sklearn LabelEncoder用法及代碼示例
- Python sklearn LabelBinarizer用法及代碼示例
- Python sklearn LassoLarsCV用法及代碼示例
- Python sklearn LatentDirichletAllocation用法及代碼示例
- Python sklearn Lasso.path用法及代碼示例
- Python sklearn LocalOutlierFactor.kneighbors_graph用法及代碼示例
- Python sklearn LeavePOut用法及代碼示例
- Python sklearn LeaveOneOut用法及代碼示例
- Python sklearn LogisticRegression用法及代碼示例
- Python sklearn LocallyLinearEmbedding用法及代碼示例
- Python sklearn LedoitWolf用法及代碼示例
- Python sklearn LogisticRegressionCV用法及代碼示例
- Python sklearn LinearDiscriminantAnalysis用法及代碼示例
- Python sklearn LinearRegression用法及代碼示例
- Python sklearn LocalOutlierFactor.kneighbors用法及代碼示例
- Python sklearn LinearSVR用法及代碼示例
- Python sklearn LinearSVC用法及代碼示例
注:本文由純淨天空篩選整理自scikit-learn.org大神的英文原創作品 sklearn.linear_model.Lars。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。