本文簡要介紹python語言中 sklearn.linear_model.LinearRegression
的用法。
用法:
class sklearn.linear_model.LinearRegression(*, fit_intercept=True, normalize='deprecated', copy_X=True, n_jobs=None, positive=False)
普通最小二乘線性回歸。
LinearRegression 使用係數 w = (w1, …, wp) 擬合線性模型,以最小化數據集中觀察到的目標與線性近似預測的目標之間的殘差平方和。
- fit_intercept:布爾,默認=真
是否計算此模型的截距。如果設置為 False,則不會在計算中使用截距(即數據應居中)。
- normalize:布爾,默認=假
當
fit_intercept
設置為 False 時忽略此參數。如果為 True,則回歸量 X 將在回歸前通過減去均值並除以 l2 範數進行歸一化。如果您希望標準化,請在使用normalize=False
對估計器調用fit
之前使用StandardScaler
。- copy_X:布爾,默認=真
如果為 True,則 X 將被複製;否則,它可能會被覆蓋。
- n_jobs:整數,默認=無
用於計算的作業數。這隻會在問題足夠大的情況下提供加速,即如果首先
n_targets > 1
和其次X
是稀疏的,或者如果positive
設置為True
。None
表示 1,除非在joblib.parallel_backend
上下文中。-1
表示使用所有處理器。有關詳細信息,請參閱詞匯表。- positive:布爾,默認=假
當設置為
True
時,強製係數為正。此選項僅支持密集陣列。
- coef_:形狀數組 (n_features, ) 或 (n_targets, n_features)
線性回歸問題的估計係數。如果在擬合過程中傳遞了多個目標(y 2D),這是一個形狀為(n_targets,n_features)的二維數組,而如果隻傳遞了一個目標,這是一個長度為 n_features 的一維數組。
- rank_:int
矩陣的秩
X
。僅在X
密集時可用。- singular_:形狀數組 (min(X, y),)
X
的奇異值。僅在X
密集時可用。- intercept_:浮點數或形狀數組 (n_targets,)
線性模型中的獨立項。如果
fit_intercept = False
則設置為 0.0。- n_features_in_:int
擬合期間看到的特征數。
- feature_names_in_:ndarray 形狀(
n_features_in_
,) 擬合期間看到的特征名稱。僅當
X
具有全為字符串的函數名稱時才定義。
參數:
屬性:
注意:
從實現的角度來看,這隻是簡單的普通最小二乘 (scipy.linalg.lstsq) 或非負最小二乘 (scipy.optimize.nnls) 包裝為預測器對象。
例子:
>>> import numpy as np >>> from sklearn.linear_model import LinearRegression >>> X = np.array([[1, 1], [1, 2], [2, 2], [2, 3]]) >>> # y = 1 * x_0 + 2 * x_1 + 3 >>> y = np.dot(X, np.array([1, 2])) + 3 >>> reg = LinearRegression().fit(X, y) >>> reg.score(X, y) 1.0 >>> reg.coef_ array([1., 2.]) >>> reg.intercept_ 3.0... >>> reg.predict(np.array([[3, 5]])) array([16.])
相關用法
- Python sklearn LinearDiscriminantAnalysis用法及代碼示例
- Python sklearn LinearSVR用法及代碼示例
- Python sklearn LinearSVC用法及代碼示例
- Python sklearn LarsCV用法及代碼示例
- Python sklearn Lars用法及代碼示例
- Python sklearn LocalOutlierFactor.kneighbors_graph用法及代碼示例
- Python sklearn LeavePOut用法及代碼示例
- Python sklearn Lasso用法及代碼示例
- Python sklearn LabelPropagation用法及代碼示例
- Python sklearn LassoLars用法及代碼示例
- Python sklearn LeaveOneOut用法及代碼示例
- Python sklearn LogisticRegression用法及代碼示例
- Python sklearn LassoLarsIC用法及代碼示例
- Python sklearn LocallyLinearEmbedding用法及代碼示例
- Python sklearn LedoitWolf用法及代碼示例
- Python sklearn LassoCV.path用法及代碼示例
- Python sklearn LogisticRegressionCV用法及代碼示例
- Python sklearn LassoCV用法及代碼示例
- Python sklearn LabelSpreading用法及代碼示例
- Python sklearn LabelEncoder用法及代碼示例
- Python sklearn LocalOutlierFactor.kneighbors用法及代碼示例
- Python sklearn LabelBinarizer用法及代碼示例
- Python sklearn LassoLarsCV用法及代碼示例
- Python sklearn LatentDirichletAllocation用法及代碼示例
- Python sklearn Lasso.path用法及代碼示例
注:本文由純淨天空篩選整理自scikit-learn.org大神的英文原創作品 sklearn.linear_model.LinearRegression。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。