本文简要介绍
pyspark.pandas.groupby.GroupBy.median
的用法。用法:
GroupBy.median(numeric_only: bool = True, accuracy: int = 10000) → FrameLike
计算组的中位数,不包括缺失值。
对于多个分组,结果索引将为MultiIndex
注意
与 pandas 不同,pandas-on-Spark 中的中位数是基于近似百分位数计算的近似中位数,因为在大型数据集上计算中位数非常昂贵。
- numeric_only:布尔值,默认为真
仅包括 float、int、boolean 列。不支持 False。这个参数主要是为了pandas的兼容性。
- 系列或DataFrame
每个组内的值的中位数。
参数:
返回:
例子:
>>> psdf = ps.DataFrame({'a': [1., 1., 1., 1., 2., 2., 2., 3., 3., 3.], ... 'b': [2., 3., 1., 4., 6., 9., 8., 10., 7., 5.], ... 'c': [3., 5., 2., 5., 1., 2., 6., 4., 3., 6.]}, ... columns=['a', 'b', 'c'], ... index=[7, 2, 4, 1, 3, 4, 9, 10, 5, 6]) >>> psdf a b c 7 1.0 2.0 3.0 2 1.0 3.0 5.0 4 1.0 1.0 2.0 1 1.0 4.0 5.0 3 2.0 6.0 1.0 4 2.0 9.0 2.0 9 2.0 8.0 6.0 10 3.0 10.0 4.0 5 3.0 7.0 3.0 6 3.0 5.0 6.0
DataFrameGroupBy
>>> psdf.groupby('a').median().sort_index() b c a 1.0 2.0 3.0 2.0 8.0 2.0 3.0 7.0 4.0
SeriesGroupBy
>>> psdf.groupby('a')['b'].median().sort_index() a 1.0 2.0 2.0 8.0 3.0 7.0 Name: b, dtype: float64
相关用法
- Python pyspark GroupBy.mean用法及代码示例
- Python pyspark GroupBy.head用法及代码示例
- Python pyspark GroupBy.cumsum用法及代码示例
- Python pyspark GroupBy.rank用法及代码示例
- Python pyspark GroupBy.bfill用法及代码示例
- Python pyspark GroupBy.cummin用法及代码示例
- Python pyspark GroupBy.cummax用法及代码示例
- Python pyspark GroupBy.fillna用法及代码示例
- Python pyspark GroupBy.apply用法及代码示例
- Python pyspark GroupBy.diff用法及代码示例
- Python pyspark GroupBy.filter用法及代码示例
- Python pyspark GroupBy.transform用法及代码示例
- Python pyspark GroupBy.cumcount用法及代码示例
- Python pyspark GroupBy.idxmax用法及代码示例
- Python pyspark GroupBy.shift用法及代码示例
- Python pyspark GroupBy.idxmin用法及代码示例
- Python pyspark GroupBy.nunique用法及代码示例
- Python pyspark GroupBy.tail用法及代码示例
- Python pyspark GroupBy.size用法及代码示例
- Python pyspark GroupBy.any用法及代码示例
- Python pyspark GroupBy.all用法及代码示例
- Python pyspark GroupBy.get_group用法及代码示例
- Python pyspark GroupBy.ffill用法及代码示例
- Python pyspark GroupBy.backfill用法及代码示例
- Python pyspark GroupBy.cumprod用法及代码示例
注:本文由纯净天空筛选整理自spark.apache.org大神的英文原创作品 pyspark.pandas.groupby.GroupBy.median。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。