当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python pyspark SeriesGroupBy.value_counts用法及代码示例


本文简要介绍 pyspark.pandas.groupby.SeriesGroupBy.value_counts 的用法。

用法:

SeriesGroupBy.value_counts(sort: Optional[bool] = None, ascending: Optional[bool] = None, dropna: bool = True) → pyspark.pandas.series.Series

计算组大小。

参数

sort布尔值,默认无

按频率排序。

ascending布尔值,默认为 False

按升序排列。

dropna布尔值,默认 True

不包括 NaN 的计数。

例子

>>> df = ps.DataFrame({'A': [1, 2, 2, 3, 3, 3],
...                    'B': [1, 1, 2, 3, 3, 3]},
...                   columns=['A', 'B'])
>>> df
   A  B
0  1  1
1  2  1
2  2  2
3  3  3
4  3  3
5  3  3
>>> df.groupby('A')['B'].value_counts().sort_index()  
A  B
1  1    1
2  1    1
   2    1
3  3    3
Name: B, dtype: int64

相关用法


注:本文由纯净天空筛选整理自spark.apache.org大神的英文原创作品 pyspark.pandas.groupby.SeriesGroupBy.value_counts。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。