當前位置: 首頁>>代碼示例 >>用法及示例精選 >>正文


R SparkR pivot用法及代碼示例


說明:

透視 GroupedData 的一列並執行指定的聚合。有兩種版本的數據透視函數:一種要求調用者指定要轉換的不同值的列表,另一種不需要。後者更簡潔但效率較低,因為 Spark 需要首先在內部計算不同值的列表。

用法:

## S4 method for signature 'GroupedData,character'
pivot(x, colname, values = list())

參數:

  • x 一個 GroupedData 對象
  • colname 列名
  • values 輸出列的不同值的值或列表/向量。

返回:

分組數據對象

注意:

自 2.0.0 以來的樞軸

例子:

df <- createDataFrame(data.frame(
    earnings = c(10000, 10000, 11000, 15000, 12000, 20000, 21000, 22000),
    course = c("R", "Python", "R", "Python", "R", "Python", "R", "Python"),
    period = c("1H", "1H", "2H", "2H", "1H", "1H", "2H", "2H"),
    year = c(2015, 2015, 2015, 2015, 2016, 2016, 2016, 2016)
))
group_sum <- sum(pivot(groupBy(df, "year"), "course"), "earnings")
group_min <- min(pivot(groupBy(df, "year"), "course", "R"), "earnings")
group_max <- max(pivot(groupBy(df, "year"), "course", c("Python", "R")), "earnings")
group_mean <- mean(pivot(groupBy(df, "year"), "course", list("Python", "R")), "earnings")

相關用法


注:本文由純淨天空篩選整理自spark.apache.org大神的英文原創作品 Pivot a column of the GroupedData and perform the specified aggregation.。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。