当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python pyspark DataFrame.exceptAll用法及代码示例


本文简要介绍 pyspark.sql.DataFrame.exceptAll 的用法。

用法:

DataFrame.exceptAll(other)

返回一个新的 DataFrame ,其中包含此 DataFrame 中的行,但不包含另一个 DataFrame 中的行,同时保留重复项。

这相当于 SQL 中的EXCEPT ALL。作为 SQL 中的标准,此函数按位置(而不是按名称)解析列。

2.4.0 版中的新函数。

例子

>>> df1 = spark.createDataFrame(
...         [("a", 1), ("a", 1), ("a", 1), ("a", 2), ("b",  3), ("c", 4)], ["C1", "C2"])
>>> df2 = spark.createDataFrame([("a", 1), ("b", 3)], ["C1", "C2"])
>>> df1.exceptAll(df2).show()
+---+---+
| C1| C2|
+---+---+
|  a|  1|
|  a|  1|
|  a|  2|
|  c|  4|
+---+---+

相关用法


注:本文由纯净天空筛选整理自spark.apache.org大神的英文原创作品 pyspark.sql.DataFrame.exceptAll。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。