當前位置: 首頁>>代碼示例 >>用法及示例精選 >>正文


Python pyspark RDD.partitionBy用法及代碼示例


本文簡要介紹 pyspark.RDD.partitionBy 的用法。

用法:

RDD.partitionBy(numPartitions, partitionFunc=<function portable_hash>)

返回使用指定分區器分區的 RDD 的副本。

例子

>>> pairs = sc.parallelize([1, 2, 3, 4, 2, 4, 1]).map(lambda x: (x, x))
>>> sets = pairs.partitionBy(2).glom().collect()
>>> len(set(sets[0]).intersection(set(sets[1])))
0

相關用法


注:本文由純淨天空篩選整理自spark.apache.org大神的英文原創作品 pyspark.RDD.partitionBy。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。