当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python pyspark SparkContext.runJob用法及代码示例


本文简要介绍 pyspark.SparkContext.runJob 的用法。

用法:

SparkContext.runJob(rdd, partitionFunc, partitions=None, allowLocal=False)

在指定的分区集上执行给定的 partitionFunc,将结果作为元素数组返回。

如果未指定‘partitions’,这将在所有分区上运行。

例子

>>> myRDD = sc.parallelize(range(6), 3)
>>> sc.runJob(myRDD, lambda part: [x * x for x in part])
[0, 1, 4, 9, 16, 25]
>>> myRDD = sc.parallelize(range(6), 3)
>>> sc.runJob(myRDD, lambda part: [x * x for x in part], [0, 2], True)
[0, 1, 16, 25]

相关用法


注:本文由纯净天空筛选整理自spark.apache.org大神的英文原创作品 pyspark.SparkContext.runJob。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。