当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python pyspark RandomRDDs.logNormalRDD用法及代码示例


本文简要介绍 pyspark.mllib.random.RandomRDDs.logNormalRDD 的用法。

用法:

static logNormalRDD(sc, mean, std, size, numPartitions=None, seed=None)

生成一个由 i.i.d 组成的 RDD。来自具有输入均值和标准分布的对数正态分布的样本。

版本 1.3.0 中的新函数。

参数

scSparkContext

用于创建 RDD。

mean浮点数

对数正态分布的平均值

std浮点数

标准对数正态分布

sizeint

RDD 的大小。

numPartitions整数,可选

RDD 中的分区数(默认值:sc.defaultParallelism)。

seed整数,可选

随机种子(默认值:随机长整数)。

返回

由 i.i.d. 组成的浮点数 RDD样本〜日志N(平均,标准)。

例子

>>> from math import sqrt, exp
>>> mean = 0.0
>>> std = 1.0
>>> expMean = exp(mean + 0.5 * std * std)
>>> expStd = sqrt((exp(std * std) - 1.0) * exp(2.0 * mean + std * std))
>>> x = RandomRDDs.logNormalRDD(sc, mean, std, 1000, seed=2)
>>> stats = x.stats()
>>> stats.count()
1000
>>> abs(stats.mean() - expMean) < 0.5
True
>>> from math import sqrt
>>> abs(stats.stdev() - expStd) < 0.5
True

相关用法


注:本文由纯净天空筛选整理自spark.apache.org大神的英文原创作品 pyspark.mllib.random.RandomRDDs.logNormalRDD。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。