当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


R SparkR pivot用法及代码示例


说明:

透视 GroupedData 的一列并执行指定的聚合。有两种版本的数据透视函数:一种要求调用者指定要转换的不同值的列表,另一种不需要。后者更简洁但效率较低,因为 Spark 需要首先在内部计算不同值的列表。

用法:

## S4 method for signature 'GroupedData,character'
pivot(x, colname, values = list())

参数:

  • x 一个 GroupedData 对象
  • colname 列名
  • values 输出列的不同值的值或列表/向量。

返回:

分组数据对象

注意:

自 2.0.0 以来的枢轴

例子:

df <- createDataFrame(data.frame(
    earnings = c(10000, 10000, 11000, 15000, 12000, 20000, 21000, 22000),
    course = c("R", "Python", "R", "Python", "R", "Python", "R", "Python"),
    period = c("1H", "1H", "2H", "2H", "1H", "1H", "2H", "2H"),
    year = c(2015, 2015, 2015, 2015, 2016, 2016, 2016, 2016)
))
group_sum <- sum(pivot(groupBy(df, "year"), "course"), "earnings")
group_min <- min(pivot(groupBy(df, "year"), "course", "R"), "earnings")
group_max <- max(pivot(groupBy(df, "year"), "course", c("Python", "R")), "earnings")
group_mean <- mean(pivot(groupBy(df, "year"), "course", list("Python", "R")), "earnings")

相关用法


注:本文由纯净天空筛选整理自spark.apache.org大神的英文原创作品 Pivot a column of the GroupedData and perform the specified aggregation.。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。