说明:
加载文本文件并返回一个 SparkDataFrame,其架构以名为 "value" 的字符串列开头,如果有的话,后面是分区列。文本文件必须编码为 UTF-8。
用法:
read.text(path, ...)
参数:
path
要读取的文件路径。允许多个路径的向量。...
额外的外部数据源特定的命名属性。您可以在 text-specific 中找到用于读取文本文件的选项https://spark.apache.org/docs/latest/sql-data-sources-text.html#data-source-option您使用的版本中的数据源选项。
细节:
文本文件中的每一行都是生成的 SparkDataFrame 中的新行。
返回:
SparkDataFrame
注意:
从 1.6.1 开始的 read.text
例子:
sparkR.session()
path <- "path/to/file.txt"
df <- read.text(path)
相关用法
- R SparkR read.stream用法及代码示例
- R SparkR read.jdbc用法及代码示例
- R SparkR read.ml用法及代码示例
- R SparkR read.df用法及代码示例
- R SparkR read.json用法及代码示例
- R SparkR refreshTable用法及代码示例
- R SparkR registerTempTable用法及代码示例
- R SparkR rename用法及代码示例
- R SparkR repartition用法及代码示例
- R SparkR recoverPartitions用法及代码示例
- R SparkR repartitionByRange用法及代码示例
- R SparkR refreshByPath用法及代码示例
- R SparkR randomSplit用法及代码示例
- R SparkR rbind用法及代码示例
- R SparkR rollup用法及代码示例
- R SparkR rangeBetween用法及代码示例
- R SparkR rowsBetween用法及代码示例
- R matrix转list用法及代码示例
- R SparkR freqItems用法及代码示例
- R SparkR intersectAll用法及代码示例
注:本文由纯净天空筛选整理自spark.apache.org大神的英文原创作品 Create a SparkDataFrame from a text file.。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。