本文簡要介紹python語言中 sklearn.linear_model.Lasso
的用法。
用法:
class sklearn.linear_model.Lasso(alpha=1.0, *, fit_intercept=True, normalize='deprecated', precompute=False, copy_X=True, max_iter=1000, tol=0.0001, warm_start=False, positive=False, random_state=None, selection='cyclic')
使用 L1 先驗作為正則化器(又名 Lasso)訓練的線性模型。
Lasso 的優化目標是:
(1 / (2 * n_samples)) * ||y - Xw||^2_2 + alpha * ||w||_1
從技術上講,Lasso 模型使用
l1_ratio=1.0
(無 L2 懲罰)優化與彈性網絡相同的目標函數。在用戶指南中閱讀更多信息。
- alpha:浮點數,默認=1.0
乘以 L1 項的常數。默認為 1.0。
alpha = 0
相當於普通的最小二乘,由LinearRegression
對象解決。出於數字原因,不建議將alpha = 0
與Lasso
對象一起使用。鑒於此,您應該使用LinearRegression
對象。- fit_intercept:布爾,默認=真
是否計算此模型的截距。如果設置為 False,則不會在計算中使用截距(即數據應居中)。
- normalize:布爾,默認=假
當
fit_intercept
設置為 False 時忽略此參數。如果為 True,則回歸量 X 將在回歸前通過減去均值並除以 l2 範數進行歸一化。如果您希望標準化,請在使用normalize=False
對估計器調用fit
之前使用StandardScaler
。- precompute:布爾型或類似數組的形狀 (n_features, n_features),默認=False
是否使用預先計算的 Gram 矩陣來加速計算。 Gram 矩陣也可以作為參數傳遞。對於稀疏輸入,此選項始終為
False
以保持稀疏性。- copy_X:布爾,默認=真
如果
True
,X 將被複製;否則,它可能會被覆蓋。- max_iter:整數,默認=1000
最大迭代次數。
- tol:浮點數,默認=1e-4
優化的容差:如果更新小於
tol
,則優化代碼檢查對偶間隙的最優性並繼續直到它小於tol
。- warm_start:布爾,默認=假
當設置為 True 時,重用之前調用的解決方案作為初始化,否則,隻需擦除之前的解決方案。請參閱詞匯表。
- positive:布爾,默認=假
當設置為
True
時,強製係數為正。- random_state:int,RandomState 實例,默認=無
選擇要更新的隨機特征的偽隨機數生成器的種子。當
selection
== ‘random’ 時使用。傳遞 int 以獲得跨多個函數調用的可重現輸出。請參閱詞匯表。- selection:{‘cyclic’, ‘random’},默認='循環'
如果設置為‘random’,則每次迭代都會更新隨機係數,而不是默認情況下按順序循環特征。這(設置為‘random’)通常會導致收斂速度顯著加快,尤其是當 tol 高於 1e-4 時。
- coef_:ndarray 形狀 (n_features,) 或 (n_targets, n_features)
參數向量(成本函數公式中的 w)。
- dual_gap_:形狀的浮點數或 ndarray (n_targets,)
給定參數 alpha,優化結束時的對偶間隙,形狀與 y 的每個觀察值相同。
sparse_coef_
形狀為 (n_features, 1) 或 (n_targets, n_features) 的稀疏矩陣擬合
coef_
的稀疏表示。- intercept_:形狀的浮點數或 ndarray (n_targets,)
決策函數中的獨立項。
- n_iter_:int 或 int 列表
坐標下降求解器為達到指定容差而運行的迭代次數。
- n_features_in_:int
擬合期間看到的特征數。
- feature_names_in_:ndarray 形狀(
n_features_in_
,) 擬合期間看到的特征名稱。僅當
X
具有全為字符串的函數名稱時才定義。
參數:
屬性:
注意:
用於擬合模型的算法是坐標下降。
為避免不必要的內存重複,fit 方法的 X 參數應直接作為 Fortran-contiguous numpy 數組傳遞。
例子:
>>> from sklearn import linear_model >>> clf = linear_model.Lasso(alpha=0.1) >>> clf.fit([[0,0], [1, 1], [2, 2]], [0, 1, 2]) Lasso(alpha=0.1) >>> print(clf.coef_) [0.85 0. ] >>> print(clf.intercept_) 0.15...
相關用法
- Python sklearn LassoLars用法及代碼示例
- Python sklearn LassoLarsIC用法及代碼示例
- Python sklearn LassoCV.path用法及代碼示例
- Python sklearn LassoCV用法及代碼示例
- Python sklearn LassoLarsCV用法及代碼示例
- Python sklearn Lasso.path用法及代碼示例
- Python sklearn LarsCV用法及代碼示例
- Python sklearn Lars用法及代碼示例
- Python sklearn LabelPropagation用法及代碼示例
- Python sklearn LabelSpreading用法及代碼示例
- Python sklearn LabelEncoder用法及代碼示例
- Python sklearn LabelBinarizer用法及代碼示例
- Python sklearn LatentDirichletAllocation用法及代碼示例
- Python sklearn LocalOutlierFactor.kneighbors_graph用法及代碼示例
- Python sklearn LeavePOut用法及代碼示例
- Python sklearn LeaveOneOut用法及代碼示例
- Python sklearn LogisticRegression用法及代碼示例
- Python sklearn LocallyLinearEmbedding用法及代碼示例
- Python sklearn LedoitWolf用法及代碼示例
- Python sklearn LogisticRegressionCV用法及代碼示例
- Python sklearn LinearDiscriminantAnalysis用法及代碼示例
- Python sklearn LinearRegression用法及代碼示例
- Python sklearn LocalOutlierFactor.kneighbors用法及代碼示例
- Python sklearn LinearSVR用法及代碼示例
- Python sklearn LinearSVC用法及代碼示例
注:本文由純淨天空篩選整理自scikit-learn.org大神的英文原創作品 sklearn.linear_model.Lasso。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。