本文简要介绍
pyspark.SparkContext.range
的用法。用法:
SparkContext.range(start, end=None, step=1, numSlices=None)
创建一个 int 的新 RDD,包含从
start
到end
(不包括)的元素,每个元素增加step
。可以像python内置的range()函数一样调用。如果使用单个参数调用,则该参数将解释为end
,并且start
设置为 0。- start:int
起始值
- end:整数,可选
最终值(不包括)
- step:整数,可选
增量步骤(默认值:1)
- numSlices:整数,可选
新 RDD 的分区数
pyspark.RDD
int 的 RDD
参数:
返回:
例子:
>>> sc.range(5).collect() [0, 1, 2, 3, 4] >>> sc.range(2, 4).collect() [2, 3] >>> sc.range(1, 7, 2).collect() [1, 3, 5]
相关用法
- Python pyspark SparkContext.runJob用法及代码示例
- Python pyspark SparkContext.addFile用法及代码示例
- Python pyspark SparkContext.union用法及代码示例
- Python pyspark SparkContext.parallelize用法及代码示例
- Python pyspark SparkContext.setJobGroup用法及代码示例
- Python pyspark SparkContext.pickleFile用法及代码示例
- Python pyspark SparkContext.applicationId用法及代码示例
- Python pyspark SparkContext.wholeTextFiles用法及代码示例
- Python pyspark SparkContext.textFile用法及代码示例
- Python pyspark SparkContext用法及代码示例
- Python pyspark SparkConf用法及代码示例
- Python pyspark SparkSession.createDataFrame用法及代码示例
- Python pyspark SparkSession.table用法及代码示例
- Python pyspark SparkSession用法及代码示例
- Python pyspark SparkSession.builder.config用法及代码示例
- Python pyspark SparkSession.getActiveSession用法及代码示例
- Python pyspark SparkSession.range用法及代码示例
- Python pyspark SparkSession.sql用法及代码示例
- Python pyspark SparkSession.builder.getOrCreate用法及代码示例
- Python pyspark SparseVector.parse用法及代码示例
- Python pyspark SparseVector.dot用法及代码示例
- Python pyspark SparseVector.squared_distance用法及代码示例
- Python pyspark SparseVector.norm用法及代码示例
- Python pyspark Series.asof用法及代码示例
- Python pyspark Series.to_frame用法及代码示例
注:本文由纯净天空筛选整理自spark.apache.org大神的英文原创作品 pyspark.SparkContext.range。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。