本文簡要介紹python語言中 sklearn.neighbors.KNeighborsTransformer
的用法。
用法:
class sklearn.neighbors.KNeighborsTransformer(*, mode='distance', n_neighbors=5, algorithm='auto', leaf_size=30, metric='minkowski', p=2, metric_params=None, n_jobs=1)
將 X 轉換為 k 個最近鄰的(加權)圖。
轉換後的數據是由kneighbors_graph 返回的稀疏圖。
在用戶指南中閱讀更多信息。
- mode:{‘distance’, ‘connectivity’},默認='距離'
返回矩陣的類型:‘connectivity’ 將返回具有 1 和 0 的連接矩陣,‘distance’ 將根據給定度量返回鄰居之間的距離。
- n_neighbors:整數,默認=5
變換後的稀疏圖中每個樣本的鄰居數。出於兼容性原因,由於每個樣本都被視為其自己的鄰居,因此當 mode == ‘distance’ 時將計算一個額外的鄰居。在這種情況下,稀疏圖包含 (n_neighbors + 1) 個鄰居。
- algorithm:{‘auto’, ‘ball_tree’,‘kd_tree’, ‘brute’},默認='自動'
用於計算最近鄰的算法:
注意:擬合稀疏輸入將使用蠻力覆蓋此參數的設置。
- leaf_size:整數,默認=30
葉大小傳遞給BallTree 或 KDTree。這會影響構建和查詢的速度,以及存儲樹所需的內存。最佳值取決於問題的性質。
- metric:str 或可調用,默認='minkowski'
用於距離計算的度量。可以使用來自 scikit-learn 或 scipy.spatial.distance 的任何度量。
如果 metric 是一個可調用函數,則在每對實例(行)上調用它並記錄結果值。可調用對象應將兩個數組作為輸入並返回一個值,指示它們之間的距離。這適用於 Scipy 的指標,但效率低於將指標名稱作為字符串傳遞。
不支持距離矩陣。
指標的有效值為:
- 來自scikit-learn:[‘cityblock’, ‘cosine’, ‘euclidean’,‘l1’, ‘l2’,‘manhattan’]
- 來自 scipy.spatial.distance: [‘braycurtis’, ‘canberra’, ‘chebyshev’, ‘correlation’, ‘dice’, ‘hamming’, ‘jaccard’, ‘kulsinski’, ‘mahalanobis’, ‘minkowski’, ‘rogerstanimoto’, ‘russellrao’, ‘seuclidean’, ‘sokalmichener’, ‘sokalsneath’, ‘sqeuclidean’, ‘yule’]
有關這些指標的詳細信息,請參閱scipy.spatial.distance 的文檔。
- p:整數,默認=2
來自 sklearn.metrics.pairwise.pairwise_distances 的 Minkowski 度量的參數。當 p = 1 時,這相當於使用 manhattan_distance (l1),而對於 p = 2,則使用 euclidean_distance (l2)。對於任意 p,使用 minkowski_distance (l_p)。
- metric_params:字典,默認=無
度量函數的附加關鍵字參數。
- n_jobs:整數,默認=1
為鄰居搜索運行的並行作業數。如果
-1
,則作業數設置為 CPU 內核數。
- effective_metric_:str 或可調用
使用的距離度量。它將與
metric
參數或其同義詞相同,例如‘euclidean’ 如果metric
參數設置為 ‘minkowski’ 並且p
參數設置為 2。- effective_metric_params_:dict
度量函數的附加關鍵字參數。大多數指標與
metric_params
參數相同,但如果effective_metric_
屬性設置為‘minkowski’,也可能包含p
參數值。- n_features_in_:int
擬合期間看到的特征數。
- feature_names_in_:ndarray 形狀(
n_features_in_
,) 擬合期間看到的特征名稱。僅當
X
具有全為字符串的函數名稱時才定義。- n_samples_fit_:int
擬合數據中的樣本數。
參數:
屬性:
例子:
>>> from sklearn.datasets import load_wine >>> from sklearn.neighbors import KNeighborsTransformer >>> X, _ = load_wine(return_X_y=True) >>> X.shape (178, 13) >>> transformer = KNeighborsTransformer(n_neighbors=5, mode='distance') >>> X_dist_graph = transformer.fit_transform(X) >>> X_dist_graph.shape (178, 178)
相關用法
- Python sklearn KNeighborsTransformer.kneighbors_graph用法及代碼示例
- Python sklearn KNeighborsTransformer.kneighbors用法及代碼示例
- Python sklearn KNeighborsRegressor用法及代碼示例
- Python sklearn KNeighborsRegressor.kneighbors用法及代碼示例
- Python sklearn KNeighborsClassifier.kneighbors用法及代碼示例
- Python sklearn KNeighborsClassifier用法及代碼示例
- Python sklearn KNeighborsRegressor.kneighbors_graph用法及代碼示例
- Python sklearn KNeighborsClassifier.kneighbors_graph用法及代碼示例
- Python sklearn KNNImputer用法及代碼示例
- Python sklearn KBinsDiscretizer用法及代碼示例
- Python sklearn KDTree用法及代碼示例
- Python sklearn KernelPCA用法及代碼示例
- Python sklearn KernelDensity用法及代碼示例
- Python sklearn KernelRidge用法及代碼示例
- Python sklearn KMeans用法及代碼示例
- Python sklearn KernelCenterer用法及代碼示例
- Python sklearn KFold用法及代碼示例
- Python sklearn jaccard_score用法及代碼示例
- Python sklearn WhiteKernel用法及代碼示例
- Python sklearn CalibrationDisplay.from_predictions用法及代碼示例
- Python sklearn VotingRegressor用法及代碼示例
- Python sklearn gen_batches用法及代碼示例
- Python sklearn ExpSineSquared用法及代碼示例
- Python sklearn MDS用法及代碼示例
- Python sklearn adjusted_rand_score用法及代碼示例
注:本文由純淨天空篩選整理自scikit-learn.org大神的英文原創作品 sklearn.neighbors.KNeighborsTransformer。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。