当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python pyspark RandomRDDs.logNormalVectorRDD用法及代码示例


本文简要介绍 pyspark.mllib.random.RandomRDDs.logNormalVectorRDD 的用法。

用法:

static logNormalVectorRDD(sc, mean, std, numRows, numCols, numPartitions=None, seed=None)

生成由包含 i.i.d 的向量组成的 RDD。从对数正态分布中抽取的样本。

版本 1.3.0 中的新函数。

参数

scSparkContext

SparkContext 用于创建 RDD。

mean浮点数

对数正态分布的平均值

std浮点数

对数正态分布的标准差

numRowsint

RDD 中的向量数。

numColsint

每个向量中的元素数。

numPartitions整数,可选

RDD 中的分区数(默认值:sc.defaultParallelism)。

seed整数,可选

随机种子(默认值:随机长整数)。

返回

pyspark.RDD

带有包含 i.i.d 的向量的向量的 RDD。样本~记录N(mean, std)

例子

>>> import numpy as np
>>> from math import sqrt, exp
>>> mean = 0.0
>>> std = 1.0
>>> expMean = exp(mean + 0.5 * std * std)
>>> expStd = sqrt((exp(std * std) - 1.0) * exp(2.0 * mean + std * std))
>>> m = RandomRDDs.logNormalVectorRDD(sc, mean, std, 100, 100, seed=1).collect()
>>> mat = np.matrix(m)
>>> mat.shape
(100, 100)
>>> abs(mat.mean() - expMean) < 0.1
True
>>> abs(mat.std() - expStd) < 0.1
True

相关用法


注:本文由纯净天空筛选整理自spark.apache.org大神的英文原创作品 pyspark.mllib.random.RandomRDDs.logNormalVectorRDD。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。