当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


R SparkR join用法及代码示例


说明:

根据给定的连接表达式连接两个 SparkDataFrame。

用法:

## S4 method for signature 'SparkDataFrame,SparkDataFrame'
join(x, y, joinExpr = NULL, joinType = NULL)

参数:

  • x 一个 SparkDataFrame
  • y 一个 SparkDataFrame
  • joinExpr (可选)用于执行连接的表达式。 joinExpr 必须是 Column 表达式。如果省略 joinExpr,则尝试默认的内连接,如果它是笛卡尔积,则会引发错误。对于笛卡尔连接,请改用 crossJoin。
  • joinType 要执行的连接类型,默认为'inner'。必须是以下之一:'inner', 'cross', 'outer', 'full', 'fullouter', 'full_outer', 'left', 'leftouter', 'left_outer', 'right', 'rightouter', 'right_outer', 'semi', 'leftsemi', 'left_semi', 'anti', 'leftanti', 'left_anti'。

返回:

包含连接操作结果的 SparkDataFrame。

注意:

从 1.4.0 开始加入

例子:

sparkR.session()
df1 <- read.json(path)
df2 <- read.json(path2)
join(df1, df2, df1$col1 == df2$col2) # Performs an inner join based on expression
join(df1, df2, df1$col1 == df2$col2, "right_outer")
join(df1, df2) # Attempts an inner join

相关用法


注:本文由纯净天空筛选整理自spark.apache.org大神的英文原创作品 Join。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。