说明:
返回一个新的 SparkDataFrame,其中包含此 SparkDataFrame 中的行,但不包含另一个 SparkDataFrame 中的行,同时保留重复项。这相当于 SQL 中的EXCEPT ALL
。同样作为 SQL 中的标准,此函数按位置(而不是名称)解析列。
用法:
exceptAll(x, y)
## S4 method for signature 'SparkDataFrame,SparkDataFrame'
exceptAll(x, y)
参数:
x
一个 SparkDataFrame。y
一个 SparkDataFrame。
返回:
一个 SparkDataFrame 包含除所有操作的结果。
注意:
exceptAll 自 2.4.0 起
例子:
sparkR.session()
df1 <- read.json(path)
df2 <- read.json(path2)
exceptAllDF <- exceptAll(df1, df2)
相关用法
- R SparkR except用法及代码示例
- R SparkR explain用法及代码示例
- R SparkR eq_null_safe用法及代码示例
- R matrix转list用法及代码示例
- R SparkR freqItems用法及代码示例
- R SparkR intersectAll用法及代码示例
- R SparkR spark.decisionTree用法及代码示例
- R SparkR sparkR.callJMethod用法及代码示例
- R SparkR sample用法及代码示例
- R SparkR approxQuantile用法及代码示例
- R SparkR glm用法及代码示例
- R SparkR randomSplit用法及代码示例
- R SparkR describe用法及代码示例
- R SparkR withColumn用法及代码示例
- R SparkR read.stream用法及代码示例
- R SparkR join用法及代码示例
- R SparkR rbind用法及代码示例
- R SparkR windowPartitionBy用法及代码示例
- R SparkR count用法及代码示例
- R SparkR column用法及代码示例
注:本文由纯净天空筛选整理自spark.apache.org大神的英文原创作品 exceptAll。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。