说明:
使用指定的列对 SparkDataFrame 进行分组,因此我们可以在它们上运行聚合。
用法:
group_by(x, ...)
groupBy(x, ...)
## S4 method for signature 'SparkDataFrame'
groupBy(x, ...)
## S4 method for signature 'SparkDataFrame'
group_by(x, ...)
参数:
x
一个 SparkDataFrame。...
要分组的字符名称或列。
返回:
分组数据。
注意:
groupBy 自 1.4.0 起
group_by 从 1.4.0 开始
例子:
# Compute the average for all numeric columns grouped by department.
avg(groupBy(df, "department"))
# Compute the max age and average salary, grouped by department and gender.
agg(groupBy(df, "department", "gender"), salary="avg", "age" -> "max")
相关用法
- R SparkR glm用法及代码示例
- R SparkR getNumPartitions用法及代码示例
- R SparkR getLocalProperty用法及代码示例
- R SparkR gapplyCollect用法及代码示例
- R SparkR gapply用法及代码示例
- R matrix转list用法及代码示例
- R SparkR freqItems用法及代码示例
- R SparkR intersectAll用法及代码示例
- R SparkR spark.decisionTree用法及代码示例
- R SparkR sparkR.callJMethod用法及代码示例
- R SparkR sample用法及代码示例
- R SparkR approxQuantile用法及代码示例
- R SparkR randomSplit用法及代码示例
- R SparkR describe用法及代码示例
- R SparkR withColumn用法及代码示例
- R SparkR read.stream用法及代码示例
- R SparkR join用法及代码示例
- R SparkR rbind用法及代码示例
- R SparkR windowPartitionBy用法及代码示例
- R SparkR count用法及代码示例
注:本文由纯净天空筛选整理自spark.apache.org大神的英文原创作品 GroupBy。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。