说明:
通过 JDBC 将 SparkDataFrame 的内容保存到外部数据库表中。可以设置其他 JDBC 数据库连接属性 (...)。您可以在 JDBC-specific 中找到通过 JDBC 写入表的选项和参数文档https://spark.apache.org/docs/latest/sql-data-sources-jdbc.html#data-source-option您使用的版本中的数据源选项。
用法:
write.jdbc(x, url, tableName, mode = "error", ...)
## S4 method for signature 'SparkDataFrame,character,character'
write.jdbc(x, url, tableName, mode = "error", ...)
参数:
x
一个 SparkDataFrame。url
jdbc:subprotocol:subname
形式的 JDBC 数据库 URL。tableName
外部数据库中表的名称。mode
'append', 'overwrite', 'error', 'errorifexists', 'ignore'保存模式之一(默认为'error')...
额外的 JDBC 数据库连接属性。
细节:
此外,模式用于指定数据源中已存在数据时保存操作的行为。有四种模式:
'append':此 SparkDataFrame 的内容应附加到现有数据中。
'overwrite':现有数据预计将被此 SparkDataFrame 的内容覆盖。
'error' 或'errorifexists':预计会抛出异常。
'ignore':保存操作预计不会保存 SparkDataFrame 的内容,也不会更改现有数据。
注意:
从 2.0.0 开始的 write.jdbc
例子:
sparkR.session()
jdbcUrl <- "jdbc:mysql://localhost:3306/databasename"
write.jdbc(df, jdbcUrl, "table", user = "username", password = "password")
相关用法
- R SparkR write.json用法及代码示例
- R SparkR write.df用法及代码示例
- R SparkR write.parquet用法及代码示例
- R SparkR write.orc用法及代码示例
- R SparkR write.stream用法及代码示例
- R SparkR write.text用法及代码示例
- R SparkR withColumn用法及代码示例
- R SparkR windowPartitionBy用法及代码示例
- R SparkR windowOrderBy用法及代码示例
- R SparkR with用法及代码示例
- R SparkR withWatermark用法及代码示例
- R SparkR withField用法及代码示例
- R matrix转list用法及代码示例
- R SparkR freqItems用法及代码示例
- R SparkR intersectAll用法及代码示例
- R SparkR spark.decisionTree用法及代码示例
- R SparkR sparkR.callJMethod用法及代码示例
- R SparkR sample用法及代码示例
- R SparkR approxQuantile用法及代码示例
- R SparkR glm用法及代码示例
注:本文由纯净天空筛选整理自spark.apache.org大神的英文原创作品 Save the content of SparkDataFrame to an external database table via JDBC.。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。