本文简要介绍
pyspark.sql.GroupedData.count
的用法。用法:
GroupedData.count()
计算每个组的记录数。
版本 1.3.0 中的新函数。
例子:
>>> sorted(df.groupBy(df.age).count().collect()) [Row(age=2, count=1), Row(age=5, count=1)]
相关用法
- Python pyspark GroupedData.applyInPandas用法及代码示例
- Python pyspark GroupedData.mean用法及代码示例
- Python pyspark GroupedData.agg用法及代码示例
- Python pyspark GroupedData.pivot用法及代码示例
- Python pyspark GroupedData.apply用法及代码示例
- Python pyspark GroupedData.max用法及代码示例
- Python pyspark GroupedData.min用法及代码示例
- Python pyspark GroupedData.avg用法及代码示例
- Python pyspark GroupedData.sum用法及代码示例
- Python pyspark GroupBy.mean用法及代码示例
- Python pyspark GroupBy.head用法及代码示例
- Python pyspark GroupBy.cumsum用法及代码示例
- Python pyspark GroupBy.rank用法及代码示例
- Python pyspark GroupBy.bfill用法及代码示例
- Python pyspark GroupBy.cummin用法及代码示例
- Python pyspark GroupBy.cummax用法及代码示例
- Python pyspark GroupBy.fillna用法及代码示例
- Python pyspark GroupBy.apply用法及代码示例
- Python pyspark GroupBy.diff用法及代码示例
- Python pyspark GroupBy.filter用法及代码示例
- Python pyspark GroupBy.transform用法及代码示例
- Python pyspark GroupBy.cumcount用法及代码示例
- Python pyspark GroupBy.idxmax用法及代码示例
- Python pyspark GroupBy.shift用法及代码示例
- Python pyspark GroupBy.idxmin用法及代码示例
注:本文由纯净天空筛选整理自spark.apache.org大神的英文原创作品 pyspark.sql.GroupedData.count。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。