当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python pyspark RDD.groupBy用法及代码示例


本文简要介绍 pyspark.RDD.groupBy 的用法。

用法:

RDD.groupBy(f, numPartitions=None, partitionFunc=<function portable_hash>)

返回分组项目的 RDD。

例子

>>> rdd = sc.parallelize([1, 1, 2, 3, 5, 8])
>>> result = rdd.groupBy(lambda x: x % 2).collect()
>>> sorted([(x, sorted(y)) for (x, y) in result])
[(0, [2, 8]), (1, [1, 1, 3, 5])]

相关用法


注:本文由纯净天空筛选整理自spark.apache.org大神的英文原创作品 pyspark.RDD.groupBy。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。