当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python pyspark SparkContext.addFile用法及代码示例


本文简要介绍 pyspark.SparkContext.addFile 的用法。

用法:

SparkContext.addFile(path, recursive=False)

在每个节点上添加要与此 Spark 作业一起下载的文件。传递的 path 可以是本地文件、HDFS 中的文件(或其他 Hadoop-supported 文件系统),也可以是 HTTP、HTTPS 或 FTP URI。

要在 Spark 作业中访问该文件,请使用带有文件名的 SparkFiles.get() 来查找其下载位置。

如果递归选项设置为 True,则可以给出一个目录。当前目录仅支持Hadoop-supported 文件系统。

注意

一条路径只能添加一次。随后添加的相同路径将被忽略。

例子

>>> from pyspark import SparkFiles
>>> path = os.path.join(tempdir, "test.txt")
>>> with open(path, "w") as testFile:
...    _ = testFile.write("100")
>>> sc.addFile(path)
>>> def func(iterator):
...    with open(SparkFiles.get("test.txt")) as testFile:
...        fileVal = int(testFile.readline())
...        return [x * fileVal for x in iterator]
>>> sc.parallelize([1, 2, 3, 4]).mapPartitions(func).collect()
[100, 200, 300, 400]

相关用法


注:本文由纯净天空筛选整理自spark.apache.org大神的英文原创作品 pyspark.SparkContext.addFile。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。