当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python pyspark RandomRDDs.exponentialRDD用法及代码示例


本文简要介绍 pyspark.mllib.random.RandomRDDs.exponentialRDD 的用法。

用法:

static exponentialRDD(sc, mean, size, numPartitions=None, seed=None)

生成一个由 i.i.d 组成的 RDD。具有输入均值的 index 分布的样本。

版本 1.3.0 中的新函数。

参数

scSparkContext

SparkContext 用于创建 RDD。

mean浮点数

index 分布的平均值或 1 /lambda。

sizeint

RDD 的大小。

numPartitions整数,可选

RDD 中的分区数(默认值:sc.defaultParallelism)。

seed整数,可选

随机种子(默认值:随机长整数)。

返回

pyspark.RDD

由 i.i.d. 组成的浮点数 RDD样本〜Exp(平均值)。

例子

>>> mean = 2.0
>>> x = RandomRDDs.exponentialRDD(sc, mean, 1000, seed=2)
>>> stats = x.stats()
>>> stats.count()
1000
>>> abs(stats.mean() - mean) < 0.5
True
>>> from math import sqrt
>>> abs(stats.stdev() - sqrt(mean)) < 0.5
True

相关用法


注:本文由纯净天空筛选整理自spark.apache.org大神的英文原创作品 pyspark.mllib.random.RandomRDDs.exponentialRDD。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。