本文简要介绍python语言中 sklearn.preprocessing.MaxAbsScaler
的用法。
用法:
class sklearn.preprocessing.MaxAbsScaler(*, copy=True)
按最大绝对值缩放每个特征。
该估计器单独缩放和转换每个特征,使得训练集中每个特征的最大绝对值为 1.0。它不会移动/居中数据,因此不会破坏任何稀疏性。
这个缩放器也可以应用于稀疏的 CSR 或 CSC 矩阵。
- copy:布尔,默认=真
设置为 False 以执行就地缩放并避免复制(如果输入已经是一个 numpy 数组)。
- scale_:ndarray 形状 (n_features,)
数据的每个特征相对缩放。
- max_abs_:ndarray 形状 (n_features,)
每个特征的最大绝对值。
- n_features_in_:int
拟合期间看到的特征数。
- feature_names_in_:ndarray 形状(
n_features_in_
,) 拟合期间看到的特征名称。仅当
X
具有全为字符串的函数名称时才定义。- n_samples_seen_:int
估计器处理的样本数。将在新调用时重置以适应,但在
partial_fit
调用中递增。
参数:
属性:
注意:
NaNs 被视为缺失值:在拟合中忽略,并在变换中保持。
有关不同缩放器、转换器和规范器的比较,请参阅示例/预处理/plot_all_scaling.py。
例子:
>>> from sklearn.preprocessing import MaxAbsScaler >>> X = [[ 1., -1., 2.], ... [ 2., 0., 0.], ... [ 0., 1., -1.]] >>> transformer = MaxAbsScaler().fit(X) >>> transformer MaxAbsScaler() >>> transformer.transform(X) array([[ 0.5, -1. , 1. ], [ 1. , 0. , 0. ], [ 0. , 1. , -0.5]])
相关用法
- Python sklearn Matern用法及代码示例
- Python sklearn MDS用法及代码示例
- Python sklearn MLPClassifier用法及代码示例
- Python sklearn MultiTaskLasso用法及代码示例
- Python sklearn MultiTaskLassoCV用法及代码示例
- Python sklearn MinMaxScaler用法及代码示例
- Python sklearn MiniBatchSparsePCA用法及代码示例
- Python sklearn MultiTaskLasso.path用法及代码示例
- Python sklearn MultiOutputClassifier用法及代码示例
- Python sklearn MultiTaskElasticNet.path用法及代码示例
- Python sklearn MultiTaskElasticNetCV.path用法及代码示例
- Python sklearn MiniBatchKMeans用法及代码示例
- Python sklearn MultiTaskElasticNetCV用法及代码示例
- Python sklearn MLPRegressor用法及代码示例
- Python sklearn MultiLabelBinarizer用法及代码示例
- Python sklearn MultiOutputRegressor用法及代码示例
- Python sklearn MultiTaskLassoCV.path用法及代码示例
- Python sklearn MiniBatchDictionaryLearning用法及代码示例
- Python sklearn MeanShift用法及代码示例
- Python sklearn MultiTaskElasticNet用法及代码示例
- Python sklearn MinCovDet用法及代码示例
- Python sklearn MultinomialNB用法及代码示例
- Python sklearn MissingIndicator用法及代码示例
- Python sklearn jaccard_score用法及代码示例
- Python sklearn WhiteKernel用法及代码示例
注:本文由纯净天空筛选整理自scikit-learn.org大神的英文原创作品 sklearn.preprocessing.MaxAbsScaler。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。