当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python pyspark SparkContext.range用法及代码示例


本文简要介绍 pyspark.SparkContext.range 的用法。

用法:

SparkContext.range(start, end=None, step=1, numSlices=None)

创建一个 int 的新 RDD,包含从 startend(不包括)的元素,每个元素增加 step。可以像python内置的range()函数一样调用。如果使用单个参数调用,则该参数将解释为 end ,并且 start 设置为 0。

参数

startint

起始值

end整数,可选

最终值(不包括)

step整数,可选

增量步骤(默认值:1)

numSlices整数,可选

新 RDD 的分区数

返回

pyspark.RDD

int 的 RDD

例子

>>> sc.range(5).collect()
[0, 1, 2, 3, 4]
>>> sc.range(2, 4).collect()
[2, 3]
>>> sc.range(1, 7, 2).collect()
[1, 3, 5]

相关用法


注:本文由纯净天空筛选整理自spark.apache.org大神的英文原创作品 pyspark.SparkContext.range。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。