说明:
按行联合两个或多个 SparkDataFrame。与 R 的 rbind
一样,此方法要求输入 SparkDataFrames 具有相同的列名。
用法:
rbind(..., deparse.level = 1)
## S4 method for signature 'SparkDataFrame'
rbind(x, ..., deparse.level = 1)
参数:
...
额外的 SparkDataFrame(s)。deparse.level
当前未使用(放在这里以匹配基本实现的签名)。x
一个 SparkDataFrame。
细节:
注意:这不会删除两个 SparkDataFrame 中的重复行。
返回:
包含联合结果的 SparkDataFrame。
注意:
从 1.5.0 开始的 rbind
例子:
sparkR.session()
unions <- rbind(df, df2, df3, df4)
相关用法
- R SparkR randomSplit用法及代码示例
- R SparkR read.stream用法及代码示例
- R SparkR rollup用法及代码示例
- R SparkR refreshTable用法及代码示例
- R SparkR read.jdbc用法及代码示例
- R SparkR registerTempTable用法及代码示例
- R SparkR read.text用法及代码示例
- R SparkR read.ml用法及代码示例
- R SparkR rename用法及代码示例
- R SparkR repartition用法及代码示例
- R SparkR recoverPartitions用法及代码示例
- R SparkR rangeBetween用法及代码示例
- R SparkR read.df用法及代码示例
- R SparkR read.json用法及代码示例
- R SparkR repartitionByRange用法及代码示例
- R SparkR rowsBetween用法及代码示例
- R SparkR refreshByPath用法及代码示例
- R matrix转list用法及代码示例
- R SparkR freqItems用法及代码示例
- R SparkR intersectAll用法及代码示例
注:本文由纯净天空筛选整理自spark.apache.org大神的英文原创作品 Union two or more SparkDataFrames。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。