当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python pyspark GroupBy.size用法及代码示例


本文简要介绍 pyspark.pandas.groupby.GroupBy.size 的用法。

用法:

GroupBy.size() → pyspark.pandas.series.Series

计算组大小。

例子

>>> df = ps.DataFrame({'A': [1, 2, 2, 3, 3, 3],
...                    'B': [1, 1, 2, 3, 3, 3]},
...                   columns=['A', 'B'])
>>> df
   A  B
0  1  1
1  2  1
2  2  2
3  3  3
4  3  3
5  3  3
>>> df.groupby('A').size().sort_index()
A
1    1
2    2
3    3
dtype: int64
>>> df.groupby(['A', 'B']).size().sort_index()
A  B
1  1    1
2  1    1
   2    1
3  3    3
dtype: int64

对于系列,

>>> df.B.groupby(df.A).size().sort_index()
A
1    1
2    2
3    3
Name: B, dtype: int64
>>> df.groupby(df.A).B.size().sort_index()
A
1    1
2    2
3    3
Name: B, dtype: int64

相关用法


注:本文由纯净天空筛选整理自spark.apache.org大神的英文原创作品 pyspark.pandas.groupby.GroupBy.size。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。