說明:
通過 JDBC 將 SparkDataFrame 的內容保存到外部數據庫表中。可以設置其他 JDBC 數據庫連接屬性 (...)。您可以在 JDBC-specific 中找到通過 JDBC 寫入表的選項和參數文檔https://spark.apache.org/docs/latest/sql-data-sources-jdbc.html#data-source-option您使用的版本中的數據源選項。
用法:
write.jdbc(x, url, tableName, mode = "error", ...)
## S4 method for signature 'SparkDataFrame,character,character'
write.jdbc(x, url, tableName, mode = "error", ...)
參數:
x
一個 SparkDataFrame。url
jdbc:subprotocol:subname
形式的 JDBC 數據庫 URL。tableName
外部數據庫中表的名稱。mode
'append', 'overwrite', 'error', 'errorifexists', 'ignore'保存模式之一(默認為'error')...
額外的 JDBC 數據庫連接屬性。
細節:
此外,模式用於指定數據源中已存在數據時保存操作的行為。有四種模式:
'append':此 SparkDataFrame 的內容應附加到現有數據中。
'overwrite':現有數據預計將被此 SparkDataFrame 的內容覆蓋。
'error' 或'errorifexists':預計會拋出異常。
'ignore':保存操作預計不會保存 SparkDataFrame 的內容,也不會更改現有數據。
注意:
從 2.0.0 開始的 write.jdbc
例子:
sparkR.session()
jdbcUrl <- "jdbc:mysql://localhost:3306/databasename"
write.jdbc(df, jdbcUrl, "table", user = "username", password = "password")
相關用法
- R SparkR write.json用法及代碼示例
- R SparkR write.df用法及代碼示例
- R SparkR write.parquet用法及代碼示例
- R SparkR write.orc用法及代碼示例
- R SparkR write.stream用法及代碼示例
- R SparkR write.text用法及代碼示例
- R SparkR withColumn用法及代碼示例
- R SparkR windowPartitionBy用法及代碼示例
- R SparkR windowOrderBy用法及代碼示例
- R SparkR with用法及代碼示例
- R SparkR withWatermark用法及代碼示例
- R SparkR withField用法及代碼示例
- R matrix轉list用法及代碼示例
- R SparkR freqItems用法及代碼示例
- R SparkR intersectAll用法及代碼示例
- R SparkR spark.decisionTree用法及代碼示例
- R SparkR sparkR.callJMethod用法及代碼示例
- R SparkR sample用法及代碼示例
- R SparkR approxQuantile用法及代碼示例
- R SparkR glm用法及代碼示例
注:本文由純淨天空篩選整理自spark.apache.org大神的英文原創作品 Save the content of SparkDataFrame to an external database table via JDBC.。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。