说明:
将数据源中的数据集作为 SparkDataFrame 返回
用法:
read.stream(source = NULL, schema = NULL, ...)
参数:
source
外部数据源名称schema
structType 中定义的数据模式或 DDL 格式的字符串,这是基于文件的流数据源所必需的...
其他外部数据源特定的命名选项,例如path
用于基于文件的流数据源。timeZone
表示用于解析 JSON/CSV 数据源或分区值中的时间戳的时区;如果未设置,则使用默认值会话本地时区。
细节:
数据源由source
和一组选项(...)指定。如果不指定source
,则使用"spark.sql.sources.default"配置的默认数据源。
返回:
SparkDataFrame
注意:
从 2.2.0 开始的 read.stream
实验
例子:
sparkR.session()
df <- read.stream("socket", host = "localhost", port = 9999)
q <- write.stream(df, "text", path = "/home/user/out", checkpointLocation = "/home/user/cp")
df <- read.stream("json", path = jsonDir, schema = schema, maxFilesPerTrigger = 1)
stringSchema <- "name STRING, info MAP<STRING, DOUBLE>"
df1 <- read.stream("json", path = jsonDir, schema = stringSchema, maxFilesPerTrigger = 1)
相关用法
- R SparkR read.jdbc用法及代码示例
- R SparkR read.text用法及代码示例
- R SparkR read.ml用法及代码示例
- R SparkR read.df用法及代码示例
- R SparkR read.json用法及代码示例
- R SparkR refreshTable用法及代码示例
- R SparkR registerTempTable用法及代码示例
- R SparkR rename用法及代码示例
- R SparkR repartition用法及代码示例
- R SparkR recoverPartitions用法及代码示例
- R SparkR repartitionByRange用法及代码示例
- R SparkR refreshByPath用法及代码示例
- R SparkR randomSplit用法及代码示例
- R SparkR rbind用法及代码示例
- R SparkR rollup用法及代码示例
- R SparkR rangeBetween用法及代码示例
- R SparkR rowsBetween用法及代码示例
- R matrix转list用法及代码示例
- R SparkR freqItems用法及代码示例
- R SparkR intersectAll用法及代码示例
注:本文由纯净天空筛选整理自spark.apache.org大神的英文原创作品 Load a streaming SparkDataFrame。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。