当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


R SparkR write.jdbc用法及代码示例


说明:

通过 JDBC 将 SparkDataFrame 的内容保存到外部数据库表中。可以设置其他 JDBC 数据库连接属性 (...)。您可以在 JDBC-specific 中找到通过 JDBC 写入表的选项和参数文档https://spark.apache.org/docs/latest/sql-data-sources-jdbc.html#data-source-option您使用的版本中的数据源选项。

用法:

write.jdbc(x, url, tableName, mode = "error", ...)

## S4 method for signature 'SparkDataFrame,character,character'
write.jdbc(x, url, tableName, mode = "error", ...)

参数:

  • x 一个 SparkDataFrame。
  • url jdbc:subprotocol:subname 形式的 JDBC 数据库 URL。
  • tableName 外部数据库中表的名称。
  • mode 'append', 'overwrite', 'error', 'errorifexists', 'ignore'保存模式之一(默认为'error')
  • ... 额外的 JDBC 数据库连接属性。

细节:

此外,模式用于指定数据源中已存在数据时保存操作的行为。有四种模式:

  • 'append':此 SparkDataFrame 的内容应附加到现有数据中。

  • 'overwrite':现有数据预计将被此 SparkDataFrame 的内容覆盖。

  • 'error' 或'errorifexists':预计会抛出异常。

  • 'ignore':保存操作预计不会保存 SparkDataFrame 的内容,也不会更改现有数据。

注意:

从 2.0.0 开始的 write.jdbc

例子:

sparkR.session()
jdbcUrl <- "jdbc:mysql://localhost:3306/databasename"
write.jdbc(df, jdbcUrl, "table", user = "username", password = "password")

相关用法


注:本文由纯净天空筛选整理自spark.apache.org大神的英文原创作品 Save the content of SparkDataFrame to an external database table via JDBC.。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。