本文简要介绍
pyspark.sql.DataFrameWriter.bucketBy
的用法。用法:
DataFrameWriter.bucketBy(numBuckets, col, *cols)
按给定列存储输出。如果指定,则输出布局在文件系统上,类似于 Hive 的分桶方案,但具有不同的桶哈希函数,并且与 Hive 的分桶不兼容。
2.3.0 版中的新函数。
- numBuckets:int
要保存的桶数
- col:str、列表或元组
列名或名称列表。
- cols:str
附加名称(可选)。如果
col
是一个列表,它应该是空的。
参数:
注意:
适用于与
DataFrameWriter.saveAsTable()
结合使用的基于文件的数据源。例子:
>>> (df.write.format('parquet') ... .bucketBy(100, 'year', 'month') ... .mode("overwrite") ... .saveAsTable('bucketed_table'))
相关用法
- Python pyspark DataFrameWriter.partitionBy用法及代码示例
- Python pyspark DataFrameWriter.parquet用法及代码示例
- Python pyspark DataFrameWriter.format用法及代码示例
- Python pyspark DataFrameWriter.sortBy用法及代码示例
- Python pyspark DataFrameWriter.csv用法及代码示例
- Python pyspark DataFrameWriter.orc用法及代码示例
- Python pyspark DataFrameWriter.mode用法及代码示例
- Python pyspark DataFrameWriter.save用法及代码示例
- Python pyspark DataFrameWriter.json用法及代码示例
- Python pyspark DataFrame.to_latex用法及代码示例
- Python pyspark DataFrame.align用法及代码示例
- Python pyspark DataFrame.plot.bar用法及代码示例
- Python pyspark DataFrame.to_delta用法及代码示例
- Python pyspark DataFrame.quantile用法及代码示例
- Python pyspark DataFrame.cumsum用法及代码示例
- Python pyspark DataFrame.iloc用法及代码示例
- Python pyspark DataFrame.dropDuplicates用法及代码示例
- Python pyspark DataFrame.printSchema用法及代码示例
- Python pyspark DataFrame.to_table用法及代码示例
- Python pyspark DataFrame.rmod用法及代码示例
- Python pyspark DataFrame.div用法及代码示例
- Python pyspark DataFrame.drop_duplicates用法及代码示例
- Python pyspark DataFrame.to_pandas用法及代码示例
- Python pyspark DataFrame.sum用法及代码示例
- Python pyspark DataFrame.transform用法及代码示例
注:本文由纯净天空筛选整理自spark.apache.org大神的英文原创作品 pyspark.sql.DataFrameWriter.bucketBy。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。