當前位置: 首頁>>代碼示例 >>用法及示例精選 >>正文


Python pyspark DataFrameWriter.csv用法及代碼示例


本文簡要介紹 pyspark.sql.DataFrameWriter.csv 的用法。

用法:

DataFrameWriter.csv(path, mode=None, compression=None, sep=None, quote=None, escape=None, header=None, nullValue=None, escapeQuotes=None, quoteAll=None, dateFormat=None, timestampFormat=None, ignoreLeadingWhiteSpace=None, ignoreTrailingWhiteSpace=None, charToEscapeQuoteEscaping=None, encoding=None, emptyValue=None, lineSep=None)

DataFrame 的內容以 CSV 格式保存在指定路徑。

2.0.0 版中的新函數。

參數

pathstr

任何 Hadoop 支持的文件係統中的路徑

modestr,可選

指定數據已存在時保存操作的行為。

  • append :將此 DataFrame 的內容附加到現有數據。

  • overwrite:覆蓋現有數據。

  • ignore:如果數據已存在,則靜默忽略此操作。

  • errorerrorifexists(默認情況):如果數據已經有則拋出異常

    存在。

其他參數

Extra options

有關額外選項,請參閱您使用的版本中的Data Source Option

例子

>>> df.write.csv(os.path.join(tempfile.mkdtemp(), 'data'))

相關用法


注:本文由純淨天空篩選整理自spark.apache.org大神的英文原創作品 pyspark.sql.DataFrameWriter.csv。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。