當前位置: 首頁>>代碼示例 >>用法及示例精選 >>正文


R SparkR spark.addFile用法及代碼示例


說明:

傳遞的路徑可以是本地文件、HDFS 中的文件(或其他 Hadoop-supported 文件係統)或 HTTP、HTTPS 或 FTP URI。要訪問 Spark 作業中的文件,請使用 spark.getSparkFiles(fileName) 查找其下載位置。

用法:

spark.addFile(path, recursive = FALSE)

參數:

  • path 要添加的文件的路徑
  • recursive 是否從路徑遞歸添加文件。默認為假。

細節:

如果 recursive 選項設置為 true,則可以給出一個目錄。當前目錄僅支持Hadoop-supported 文件係統。請參閱Hadoop-supported 文件係統https://cwiki.apache.org/confluence/display/HADOOP2/HCFS.

注意:一個路徑隻能添加一次。隨後添加的相同路徑將被忽略。

注意:

spark.addFile 自 2.1.0

例子:

spark.addFile("~/myfile")

相關用法


注:本文由純淨天空篩選整理自spark.apache.org大神的英文原創作品 Add a file or directory to be downloaded with this Spark job on every node.。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。