当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python PySpark SQL Functions count方法用法及代码示例


PySpark SQL 函数的 count(~) 是一种聚合方法,与 agg(~) 方法结合使用来计算每个组中的项目数。

参数

1.col | stringColumn

要执行计数的列。

返回值

新的 PySpark 列。

例子

考虑以下PySpark DataFrame:

df = spark.createDataFrame([['Alex','A'],['Bob','B'],['Cathy','A']], ['name','class'])
df.show()



+-----+-----+
| name|class|
+-----+-----+
| Alex|    A|
|  Bob|    B|
|Cathy|    A|
+-----+-----+

计算每组中的项目数

要计算每个 class 组的行数:

import pyspark.sql.functions as F
df.groupBy('class').agg(F.count('class').alias('COUNT')).show()



+-----+-----+
|class|COUNT|
+-----+-----+
|    A|    2|
|    B|    1|
+-----+-----+

在此,请注意以下事项:

  • 我们首先使用 groupBy(~) class 列进行分组,然后对于每个组,我们计算有多少行。从技术上讲,我们正在计算每个组中 class 值的数量 ( F.count('class') ),但这相当于只计算每个组中的行数。

  • 我们使用 alias(~) 方法为生成的聚合列分配标签。请注意,分配的默认标签是 'count'

相关用法


注:本文由纯净天空筛选整理自Isshin Inada大神的英文原创作品 PySpark SQL Functions | count method。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。