當前位置: 首頁>>代碼示例 >>用法及示例精選 >>正文


Python sklearn lars_path_gram用法及代碼示例


本文簡要介紹python語言中 sklearn.linear_model.lars_path_gram 的用法。

用法:

sklearn.linear_model.lars_path_gram(Xy, Gram, *, n_samples, max_iter=500, alpha_min=0, method='lar', copy_X=True, eps=2.220446049250313e-16, copy_Gram=True, verbose=0, return_path=True, return_n_iter=False, positive=False)

lars_path 處於充分統計模式 [1]

case method='lasso' 的優化目標是:

(1 / (2 * n_samples)) * ||y - Xw||^2_2 + alpha * ||w||_1

在 method='lars' 的情況下,目標函數僅以隱式方程的形式已知(參見 [1] 中的討論)

在用戶指南中閱讀更多信息。

參數

Xy形狀為 (n_samples,) 或 (n_samples, n_targets) 的類似數組

Xy = np.dot(X.T, y)。

Gram形狀類似數組 (n_features, n_features)

克 = np.dot(X.T * X)。

n_samplesint 或浮點數

樣本的等效大小。

max_iter整數,默認=500

要執行的最大迭代次數,設置為無限無限製。

alpha_min浮點數,默認=0

沿路徑的最小相關性。它對應於 Lasso 中的正則化參數 alpha 參數。

method{‘lar’, ‘lasso’},默認='lar'

指定返回的模型。為最小角度回歸選擇'lar',為套索選擇'lasso'

copy_X布爾,默認=真

如果FalseX被覆蓋。

eps浮點數,默認=np.finfo(float).eps

machine-precision 正則化計算 Cholesky 對角因子。為非常 ill-conditioned 的係統增加此值。與某些基於迭代優化的算法中的tol 參數不同,該參數不控製優化的容差。

copy_Gram布爾,默認=真

如果FalseGram被覆蓋。

verbose整數,默認=0

控製輸出詳細程度。

return_path布爾,默認=真

如果 return_path==True 返回整個路徑,否則僅返回路徑的最後一個點。

return_n_iter布爾,默認=假

是否返回迭代次數。

positive布爾,默認=假

將係數限製為 >= 0。此選項僅適用於方法 ‘lasso’。請注意,對於較小的 alpha 值,模型係數不會收斂到 ordinary-least-squares 解。隻有通過逐步Lars-Lasso算法達到的最小alpha值(alphas_[alphas_ > 0.].min(),當fit_path=True)的係數通常與坐標下降lasso_path函數的解一致。

返回

alphas形狀類似數組 (n_alphas + 1,)

每次迭代的協方差最大值(絕對值)。 n_alphasmax_itern_featuresalpha >= alpha_min 路徑中的節點數,以較小者為準。

active形狀類似數組 (n_alphas,)

路徑末端的活動變量的索引。

coefs形狀類似數組 (n_features, n_alphas + 1)

沿路徑的係數

n_iterint

運行的迭代次數。僅當 return_n_iter 設置為 True 時才返回。

參考

1

“Least Angle Regression”,埃夫隆等人。 http://statweb.stanford.edu/~tibs/ftp/lars.pdf

2

Least-angle 回歸的維基百科條目

3

套索上的維基百科條目

相關用法


注:本文由純淨天空篩選整理自scikit-learn.org大神的英文原創作品 sklearn.linear_model.lars_path_gram。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。