本文簡要介紹python語言中 sklearn.linear_model.LassoCV
的用法。
用法:
class sklearn.linear_model.LassoCV(*, eps=0.001, n_alphas=100, alphas=None, fit_intercept=True, normalize='deprecated', precompute='auto', max_iter=1000, tol=0.0001, copy_X=True, cv=None, verbose=False, n_jobs=None, positive=False, random_state=None, selection='cyclic')
沿正則化路徑迭代擬合的 Lasso 線性模型。
請參閱交叉驗證估計器的詞匯表條目。
通過交叉驗證選擇最佳模型。
Lasso 的優化目標是:
(1 / (2 * n_samples)) * ||y - Xw||^2_2 + alpha * ||w||_1
在用戶指南中閱讀更多信息。
- eps:浮點數,默認=1e-3
路徑的長度。
eps=1e-3
表示alpha_min / alpha_max = 1e-3
。- n_alphas:整數,默認=100
正則化路徑上的 alpha 數量。
- alphas:ndarray,默認=無
計算模型的 alpha 列表。如果自動設置
None
alpha。- fit_intercept:布爾,默認=真
是否計算此模型的截距。如果設置為 false,則不會在計算中使用截距(即數據應居中)。
- normalize:布爾,默認=假
當
fit_intercept
設置為 False 時忽略此參數。如果為 True,則回歸量 X 將在回歸前通過減去均值並除以 l2 範數進行歸一化。如果您希望標準化,請在使用normalize=False
對估計器調用fit
之前使用StandardScaler
。- precompute:‘auto’,布爾型或類似數組的形狀 (n_features, n_features),默認=’auto’
是否使用預先計算的 Gram 矩陣來加速計算。如果設置為
'auto'
,讓我們決定。 Gram 矩陣也可以作為參數傳遞。- max_iter:整數,默認=1000
最大迭代次數。
- tol:浮點數,默認=1e-4
優化的容差:如果更新小於
tol
,則優化代碼檢查對偶間隙的最優性並繼續直到它小於tol
。- copy_X:布爾,默認=真
如果
True
,X 將被複製;否則,它可能會被覆蓋。- cv:int,交叉驗證生成器或可迭代,默認=無
確定交叉驗證拆分策略。 cv 的可能輸入是:
- 無,使用默認的 5 折交叉驗證,
- int,指定折疊次數。
- CV分配器,
- 一個可迭代的 yield (train, test) 拆分為索引數組。
對於 int/None 輸入,使用
KFold
。有關可在此處使用的各種交叉驗證策略,請參閱用戶指南。
- verbose:bool 或 int,默認 = False
詳細程度。
- n_jobs:整數,默認=無
交叉驗證期間要使用的 CPU 數量。
None
表示 1,除非在joblib.parallel_backend
上下文中。-1
表示使用所有處理器。有關詳細信息,請參閱詞匯表。- positive:布爾,默認=假
如果為正,則將回歸係數限製為正。
- random_state:int,RandomState 實例,默認=無
選擇要更新的隨機特征的偽隨機數生成器的種子。當
selection
== ‘random’ 時使用。傳遞 int 以獲得跨多個函數調用的可重現輸出。請參閱詞匯表。- selection:{‘cyclic’, ‘random’},默認='循環'
如果設置為‘random’,則每次迭代都會更新隨機係數,而不是默認情況下按順序循環特征。這(設置為‘random’)通常會導致收斂速度顯著加快,尤其是當 tol 高於 1e-4 時。
- alpha_:浮點數
交叉驗證選擇的懲罰量。
- coef_:ndarray 形狀 (n_features,) 或 (n_targets, n_features)
參數向量(成本函數公式中的 w)。
- intercept_:形狀的浮點數或 ndarray (n_targets,)
決策函數中的獨立項。
- mse_path_:ndarray 形狀(n_alphas,n_folds)
每次折疊測試集的均方誤差,不同的 alpha。
- alphas_:ndarray 形狀 (n_alphas,)
用於擬合的 alpha 網格。
- dual_gap_:形狀的浮點數或 ndarray (n_targets,)
最佳 alpha (
alpha_
) 優化結束時的對偶間隙。- n_iter_:int
坐標下降求解器運行的迭代次數,以達到最佳 alpha 的指定容差。
- n_features_in_:int
擬合期間看到的特征數。
- feature_names_in_:ndarray 形狀(
n_features_in_
,) 擬合期間看到的特征名稱。僅當
X
具有全為字符串的函數名稱時才定義。
參數:
屬性:
注意:
例如,請參見例子/linear_model/plot_lasso_model_selection.py.
為避免不必要的內存重複,fit 方法的 X 參數應直接作為 Fortran-contiguous numpy 數組傳遞。
例子:
>>> from sklearn.linear_model import LassoCV >>> from sklearn.datasets import make_regression >>> X, y = make_regression(noise=4, random_state=0) >>> reg = LassoCV(cv=5, random_state=0).fit(X, y) >>> reg.score(X, y) 0.9993... >>> reg.predict(X[:1,]) array([-78.4951...])
相關用法
- Python sklearn LassoCV.path用法及代碼示例
- Python sklearn Lasso用法及代碼示例
- Python sklearn LassoLars用法及代碼示例
- Python sklearn LassoLarsIC用法及代碼示例
- Python sklearn LassoLarsCV用法及代碼示例
- Python sklearn Lasso.path用法及代碼示例
- Python sklearn LarsCV用法及代碼示例
- Python sklearn Lars用法及代碼示例
- Python sklearn LabelPropagation用法及代碼示例
- Python sklearn LabelSpreading用法及代碼示例
- Python sklearn LabelEncoder用法及代碼示例
- Python sklearn LabelBinarizer用法及代碼示例
- Python sklearn LatentDirichletAllocation用法及代碼示例
- Python sklearn LocalOutlierFactor.kneighbors_graph用法及代碼示例
- Python sklearn LeavePOut用法及代碼示例
- Python sklearn LeaveOneOut用法及代碼示例
- Python sklearn LogisticRegression用法及代碼示例
- Python sklearn LocallyLinearEmbedding用法及代碼示例
- Python sklearn LedoitWolf用法及代碼示例
- Python sklearn LogisticRegressionCV用法及代碼示例
- Python sklearn LinearDiscriminantAnalysis用法及代碼示例
- Python sklearn LinearRegression用法及代碼示例
- Python sklearn LocalOutlierFactor.kneighbors用法及代碼示例
- Python sklearn LinearSVR用法及代碼示例
- Python sklearn LinearSVC用法及代碼示例
注:本文由純淨天空篩選整理自scikit-learn.org大神的英文原創作品 sklearn.linear_model.LassoCV。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。