當前位置: 首頁>>代碼示例 >>用法及示例精選 >>正文


R SparkR write.jdbc用法及代碼示例


說明:

通過 JDBC 將 SparkDataFrame 的內容保存到外部數據庫表中。可以設置其他 JDBC 數據庫連接屬性 (...)。您可以在 JDBC-specific 中找到通過 JDBC 寫入表的選項和參數文檔https://spark.apache.org/docs/latest/sql-data-sources-jdbc.html#data-source-option您使用的版本中的數據源選項。

用法:

write.jdbc(x, url, tableName, mode = "error", ...)

## S4 method for signature 'SparkDataFrame,character,character'
write.jdbc(x, url, tableName, mode = "error", ...)

參數:

  • x 一個 SparkDataFrame。
  • url jdbc:subprotocol:subname 形式的 JDBC 數據庫 URL。
  • tableName 外部數據庫中表的名稱。
  • mode 'append', 'overwrite', 'error', 'errorifexists', 'ignore'保存模式之一(默認為'error')
  • ... 額外的 JDBC 數據庫連接屬性。

細節:

此外,模式用於指定數據源中已存在數據時保存操作的行為。有四種模式:

  • 'append':此 SparkDataFrame 的內容應附加到現有數據中。

  • 'overwrite':現有數據預計將被此 SparkDataFrame 的內容覆蓋。

  • 'error' 或'errorifexists':預計會拋出異常。

  • 'ignore':保存操作預計不會保存 SparkDataFrame 的內容,也不會更改現有數據。

注意:

從 2.0.0 開始的 write.jdbc

例子:

sparkR.session()
jdbcUrl <- "jdbc:mysql://localhost:3306/databasename"
write.jdbc(df, jdbcUrl, "table", user = "username", password = "password")

相關用法


注:本文由純淨天空篩選整理自spark.apache.org大神的英文原創作品 Save the content of SparkDataFrame to an external database table via JDBC.。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。