说明:
将 SparkDataFrame 的内容保存为 Parquet 文件,同时保留架构。使用此方法写出的文件可以使用 read.parquet() 作为 SparkDataFrame 读回。
用法:
write.parquet(x, path, ...)
## S4 method for signature 'SparkDataFrame,character'
write.parquet(x, path, mode = "error", ...)
参数:
x
一个 SparkDataFramepath
保存文件的目录...
传递给方法的附加参数。您可以找到用于编写 Parquet 文件的 Parquet-specific 选项https://spark.apache.org/docs/latest/sql-data-sources-parquet.html#data-source-option您使用的版本中的数据源选项。mode
'append', 'overwrite', 'error', 'errorifexists', 'ignore'保存模式之一(默认为'error')
注意:
write.parquet 自 1.6.0 起
例子:
sparkR.session()
path <- "path/to/file.json"
df <- read.json(path)
write.parquet(df, "/tmp/sparkr-tmp1/")
相关用法
- R SparkR write.df用法及代码示例
- R SparkR write.json用法及代码示例
- R SparkR write.orc用法及代码示例
- R SparkR write.stream用法及代码示例
- R SparkR write.jdbc用法及代码示例
- R SparkR write.text用法及代码示例
- R SparkR withColumn用法及代码示例
- R SparkR windowPartitionBy用法及代码示例
- R SparkR windowOrderBy用法及代码示例
- R SparkR with用法及代码示例
- R SparkR withWatermark用法及代码示例
- R SparkR withField用法及代码示例
- R matrix转list用法及代码示例
- R SparkR freqItems用法及代码示例
- R SparkR intersectAll用法及代码示例
- R SparkR spark.decisionTree用法及代码示例
- R SparkR sparkR.callJMethod用法及代码示例
- R SparkR sample用法及代码示例
- R SparkR approxQuantile用法及代码示例
- R SparkR glm用法及代码示例
注:本文由纯净天空筛选整理自spark.apache.org大神的英文原创作品 Save the contents of SparkDataFrame as a Parquet file, preserving the schema.。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。