本文簡要介紹python語言中 sklearn.preprocessing.MaxAbsScaler
的用法。
用法:
class sklearn.preprocessing.MaxAbsScaler(*, copy=True)
按最大絕對值縮放每個特征。
該估計器單獨縮放和轉換每個特征,使得訓練集中每個特征的最大絕對值為 1.0。它不會移動/居中數據,因此不會破壞任何稀疏性。
這個縮放器也可以應用於稀疏的 CSR 或 CSC 矩陣。
- copy:布爾,默認=真
設置為 False 以執行就地縮放並避免複製(如果輸入已經是一個 numpy 數組)。
- scale_:ndarray 形狀 (n_features,)
數據的每個特征相對縮放。
- max_abs_:ndarray 形狀 (n_features,)
每個特征的最大絕對值。
- n_features_in_:int
擬合期間看到的特征數。
- feature_names_in_:ndarray 形狀(
n_features_in_
,) 擬合期間看到的特征名稱。僅當
X
具有全為字符串的函數名稱時才定義。- n_samples_seen_:int
估計器處理的樣本數。將在新調用時重置以適應,但在
partial_fit
調用中遞增。
參數:
屬性:
注意:
NaNs 被視為缺失值:在擬合中忽略,並在變換中保持。
有關不同縮放器、轉換器和規範器的比較,請參閱示例/預處理/plot_all_scaling.py。
例子:
>>> from sklearn.preprocessing import MaxAbsScaler >>> X = [[ 1., -1., 2.], ... [ 2., 0., 0.], ... [ 0., 1., -1.]] >>> transformer = MaxAbsScaler().fit(X) >>> transformer MaxAbsScaler() >>> transformer.transform(X) array([[ 0.5, -1. , 1. ], [ 1. , 0. , 0. ], [ 0. , 1. , -0.5]])
相關用法
- Python sklearn Matern用法及代碼示例
- Python sklearn MDS用法及代碼示例
- Python sklearn MLPClassifier用法及代碼示例
- Python sklearn MultiTaskLasso用法及代碼示例
- Python sklearn MultiTaskLassoCV用法及代碼示例
- Python sklearn MinMaxScaler用法及代碼示例
- Python sklearn MiniBatchSparsePCA用法及代碼示例
- Python sklearn MultiTaskLasso.path用法及代碼示例
- Python sklearn MultiOutputClassifier用法及代碼示例
- Python sklearn MultiTaskElasticNet.path用法及代碼示例
- Python sklearn MultiTaskElasticNetCV.path用法及代碼示例
- Python sklearn MiniBatchKMeans用法及代碼示例
- Python sklearn MultiTaskElasticNetCV用法及代碼示例
- Python sklearn MLPRegressor用法及代碼示例
- Python sklearn MultiLabelBinarizer用法及代碼示例
- Python sklearn MultiOutputRegressor用法及代碼示例
- Python sklearn MultiTaskLassoCV.path用法及代碼示例
- Python sklearn MiniBatchDictionaryLearning用法及代碼示例
- Python sklearn MeanShift用法及代碼示例
- Python sklearn MultiTaskElasticNet用法及代碼示例
- Python sklearn MinCovDet用法及代碼示例
- Python sklearn MultinomialNB用法及代碼示例
- Python sklearn MissingIndicator用法及代碼示例
- Python sklearn jaccard_score用法及代碼示例
- Python sklearn WhiteKernel用法及代碼示例
注:本文由純淨天空篩選整理自scikit-learn.org大神的英文原創作品 sklearn.preprocessing.MaxAbsScaler。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。