當前位置: 首頁>>代碼示例 >>用法及示例精選 >>正文


Python pyspark SparkContext.range用法及代碼示例


本文簡要介紹 pyspark.SparkContext.range 的用法。

用法:

SparkContext.range(start, end=None, step=1, numSlices=None)

創建一個 int 的新 RDD,包含從 startend(不包括)的元素,每個元素增加 step。可以像python內置的range()函數一樣調用。如果使用單個參數調用,則該參數將解釋為 end ,並且 start 設置為 0。

參數

startint

起始值

end整數,可選

最終值(不包括)

step整數,可選

增量步驟(默認值:1)

numSlices整數,可選

新 RDD 的分區數

返回

pyspark.RDD

int 的 RDD

例子

>>> sc.range(5).collect()
[0, 1, 2, 3, 4]
>>> sc.range(2, 4).collect()
[2, 3]
>>> sc.range(1, 7, 2).collect()
[1, 3, 5]

相關用法


注:本文由純淨天空篩選整理自spark.apache.org大神的英文原創作品 pyspark.SparkContext.range。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。