本文简要介绍
pyspark.pandas.DataFrame.std
的用法。用法:
DataFrame.std(axis: Union[int, str, None] = None, ddof: int = 1, numeric_only: bool = None) → Union[int, float, bool, str, bytes, decimal.Decimal, datetime.date, datetime.datetime, None, Series]
返回样本标准差。
- axis:{索引 (0), 列 (1)}
要应用的函数的轴。
- ddof:整数,默认 1
Delta 自由度。计算中使用的除数是 N - ddof,其中 N 表示元素的数量。
- numeric_only:布尔值,默认无
仅包括 float、int、boolean 列。不支持 False。这个参数主要是为了pandas的兼容性。
- std:Series 的标量和 DataFrame 的 Series。
参数:
返回:
例子:
>>> df = ps.DataFrame({'a': [1, 2, 3, np.nan], 'b': [0.1, 0.2, 0.3, np.nan]}, ... columns=['a', 'b'])
在数据帧上:
>>> df.std() a 1.0 b 0.1 dtype: float64
>>> df.std(axis=1) 0 0.636396 1 1.272792 2 1.909188 3 NaN dtype: float64
>>> df.std(ddof=0) a 0.816497 b 0.081650 dtype: float64
在一个系列上:
>>> df['a'].std() 1.0
>>> df['a'].std(ddof=0) 0.816496580927726
相关用法
- Python pyspark DataFrame.style用法及代码示例
- Python pyspark DataFrame.storageLevel用法及代码示例
- Python pyspark DataFrame.stack用法及代码示例
- Python pyspark DataFrame.sum用法及代码示例
- Python pyspark DataFrame.sort_index用法及代码示例
- Python pyspark DataFrame.sem用法及代码示例
- Python pyspark DataFrame.sort_values用法及代码示例
- Python pyspark DataFrame.sampleBy用法及代码示例
- Python pyspark DataFrame.select用法及代码示例
- Python pyspark DataFrame.spark.to_table用法及代码示例
- Python pyspark DataFrame.sortWithinPartitions用法及代码示例
- Python pyspark DataFrame.skew用法及代码示例
- Python pyspark DataFrame.spark.frame用法及代码示例
- Python pyspark DataFrame.set_index用法及代码示例
- Python pyspark DataFrame.sub用法及代码示例
- Python pyspark DataFrame.shape用法及代码示例
- Python pyspark DataFrame.sample用法及代码示例
- Python pyspark DataFrame.spark.cache用法及代码示例
- Python pyspark DataFrame.schema用法及代码示例
- Python pyspark DataFrame.spark.persist用法及代码示例
- Python pyspark DataFrame.size用法及代码示例
- Python pyspark DataFrame.spark.to_spark_io用法及代码示例
- Python pyspark DataFrame.show用法及代码示例
- Python pyspark DataFrame.summary用法及代码示例
- Python pyspark DataFrame.spark.coalesce用法及代码示例
注:本文由纯净天空筛选整理自spark.apache.org大神的英文原创作品 pyspark.pandas.DataFrame.std。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。