本文簡要介紹python語言中 sklearn.neighbors.KNeighborsRegressor
的用法。
用法:
class sklearn.neighbors.KNeighborsRegressor(n_neighbors=5, *, weights='uniform', algorithm='auto', leaf_size=30, p=2, metric='minkowski', metric_params=None, n_jobs=None)
基於k-nearest 鄰居的回歸。
目標是通過對訓練集中最近鄰相關的目標進行局部插值來預測的。
在用戶指南中閱讀更多信息。
- n_neighbors:整數,默認=5
kneighbors
查詢默認使用的鄰居數量。- weights:{‘uniform’, ‘distance’} 或可調用,默認='uniform'
預測中使用的權重函數。可能的值:
- ‘uniform’:統一權重。每個鄰域中的所有點的權重相等。
- ‘distance’:權重點按距離的倒數計算。在這種情況下,查詢點的較近的鄰居將比較遠的鄰居具有更大的影響。
- [callable]:一個用戶定義的函數,它接受一個距離數組,並返回一個包含權重的相同形狀的數組。
默認情況下使用統一權重。
- algorithm:{‘auto’, ‘ball_tree’,‘kd_tree’, ‘brute’},默認='自動'
用於計算最近鄰的算法:
注意:擬合稀疏輸入將使用蠻力覆蓋此參數的設置。
- leaf_size:整數,默認=30
葉大小傳遞給BallTree 或 KDTree。這會影響構建和查詢的速度,以及存儲樹所需的內存。最佳值取決於問題的性質。
- p:整數,默認=2
Minkowski 度量的功率參數。當 p = 1 時,這相當於使用 manhattan_distance (l1),而對於 p = 2,則使用 euclidean_distance (l2)。對於任意 p,使用 minkowski_distance (l_p)。
- metric:str 或可調用,默認='minkowski'
用於樹的距離度量。默認度量是 minkowski,並且 p=2 等效於標準歐幾裏得度量。有關可用指標的列表,請參閱
DistanceMetric
的文檔。如果 metric 是 “precomputed”,則 X 被假定為一個距離矩陣,並且在擬合期間必須是正方形。 X 可能是一個稀疏圖,在這種情況下,隻有“nonzero” 元素可以被認為是鄰居。- metric_params:字典,默認=無
度量函數的附加關鍵字參數。
- n_jobs:整數,默認=無
運行鄰居搜索的並行作業數。
None
表示 1,除非在joblib.parallel_backend
上下文中。-1
表示使用所有處理器。有關更多詳細信息,請參閱術語表。不影響fit
方法。
- effective_metric_:str 或可調用
要使用的距離度量。它將與
metric
參數或其同義詞相同,例如‘euclidean’ 如果metric
參數設置為 ‘minkowski’ 並且p
參數設置為 2。- effective_metric_params_:dict
度量函數的附加關鍵字參數。大多數指標與
metric_params
參數相同,但如果effective_metric_
屬性設置為‘minkowski’,也可能包含p
參數值。- n_features_in_:int
擬合期間看到的特征數。
- feature_names_in_:ndarray 形狀(
n_features_in_
,) 擬合期間看到的特征名稱。僅當
X
具有全為字符串的函數名稱時才定義。- n_samples_fit_:int
擬合數據中的樣本數。
參數:
屬性:
注意:
有關選擇
algorithm
和leaf_size
的討論,請參閱在線文檔中的最近鄰居。警告
關於最近鄰算法,如果發現兩個鄰域
k+1
和k
具有相同的距離但不同的標簽,則結果將取決於訓練數據的排序。https://en.wikipedia.org/wiki/K-nearest_neighbors_algorithm
例子:
>>> X = [[0], [1], [2], [3]] >>> y = [0, 0, 1, 1] >>> from sklearn.neighbors import KNeighborsRegressor >>> neigh = KNeighborsRegressor(n_neighbors=2) >>> neigh.fit(X, y) KNeighborsRegressor(...) >>> print(neigh.predict([[1.5]])) [0.5]
相關用法
- Python sklearn KNeighborsRegressor.kneighbors用法及代碼示例
- Python sklearn KNeighborsRegressor.kneighbors_graph用法及代碼示例
- Python sklearn KNeighborsTransformer用法及代碼示例
- Python sklearn KNeighborsClassifier.kneighbors用法及代碼示例
- Python sklearn KNeighborsClassifier用法及代碼示例
- Python sklearn KNeighborsClassifier.kneighbors_graph用法及代碼示例
- Python sklearn KNeighborsTransformer.kneighbors_graph用法及代碼示例
- Python sklearn KNeighborsTransformer.kneighbors用法及代碼示例
- Python sklearn KNNImputer用法及代碼示例
- Python sklearn KBinsDiscretizer用法及代碼示例
- Python sklearn KDTree用法及代碼示例
- Python sklearn KernelPCA用法及代碼示例
- Python sklearn KernelDensity用法及代碼示例
- Python sklearn KernelRidge用法及代碼示例
- Python sklearn KMeans用法及代碼示例
- Python sklearn KernelCenterer用法及代碼示例
- Python sklearn KFold用法及代碼示例
- Python sklearn jaccard_score用法及代碼示例
- Python sklearn WhiteKernel用法及代碼示例
- Python sklearn CalibrationDisplay.from_predictions用法及代碼示例
- Python sklearn VotingRegressor用法及代碼示例
- Python sklearn gen_batches用法及代碼示例
- Python sklearn ExpSineSquared用法及代碼示例
- Python sklearn MDS用法及代碼示例
- Python sklearn adjusted_rand_score用法及代碼示例
注:本文由純淨天空篩選整理自scikit-learn.org大神的英文原創作品 sklearn.neighbors.KNeighborsRegressor。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。