当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python pyspark DataFrame.cube用法及代码示例


本文简要介绍 pyspark.sql.DataFrame.cube 的用法。

用法:

DataFrame.cube(*cols)

使用指定的列为当前 DataFrame 创建一个多维多维数据集,以便我们可以对它们运行聚合。

1.4.0 版中的新函数。

例子

>>> df.cube("name", df.age).count().orderBy("name", "age").show()
+-----+----+-----+
| name| age|count|
+-----+----+-----+
| null|null|    2|
| null|   2|    1|
| null|   5|    1|
|Alice|null|    1|
|Alice|   2|    1|
|  Bob|null|    1|
|  Bob|   5|    1|
+-----+----+-----+

相关用法


注:本文由纯净天空筛选整理自spark.apache.org大神的英文原创作品 pyspark.sql.DataFrame.cube。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。