本文簡要介紹
pyspark.pandas.DataFrame.spark.coalesce
的用法。用法:
spark.coalesce(num_partitions: int) → ps.DataFrame
返回一個新的 DataFrame,它恰好具有
num_partitions
分區。注意
此操作導致狹窄的依賴關係,例如如果您從 1000 個分區增加到 100 個分區,則不會有洗牌,而是 100 個新分區中的每一個都將占用當前分區中的 10 個。如果請求的分區數更大,它將保持當前的分區數。但是,如果您要進行劇烈的合並,例如到 num_partitions = 1,這可能會導致您的計算發生在比您喜歡的更少的節點上(例如,在 num_partitions = 1 的情況下是一個節點)。為避免這種情況,您可以調用repartition()。這將添加一個 shuffle 步驟,但意味著當前的上遊分區將並行執行(無論當前分區是什麽)。
- num_partitions:int
目標分區數。
- DataFrame
參數:
返回:
例子:
>>> psdf = ps.DataFrame({"age": [5, 5, 2, 2], ... "name": ["Bob", "Bob", "Alice", "Alice"]}).set_index("age") >>> psdf.sort_index() name age 2 Alice 2 Alice 5 Bob 5 Bob >>> new_psdf = psdf.spark.coalesce(1) >>> new_psdf.to_spark().rdd.getNumPartitions() 1 >>> new_psdf.sort_index() name age 2 Alice 2 Alice 5 Bob 5 Bob
相關用法
- Python pyspark DataFrame.spark.cache用法及代碼示例
- Python pyspark DataFrame.spark.to_table用法及代碼示例
- Python pyspark DataFrame.spark.frame用法及代碼示例
- Python pyspark DataFrame.spark.persist用法及代碼示例
- Python pyspark DataFrame.spark.to_spark_io用法及代碼示例
- Python pyspark DataFrame.spark.repartition用法及代碼示例
- Python pyspark DataFrame.spark.hint用法及代碼示例
- Python pyspark DataFrame.spark.apply用法及代碼示例
- Python pyspark DataFrame.sum用法及代碼示例
- Python pyspark DataFrame.sort_index用法及代碼示例
- Python pyspark DataFrame.sem用法及代碼示例
- Python pyspark DataFrame.sort_values用法及代碼示例
- Python pyspark DataFrame.sampleBy用法及代碼示例
- Python pyspark DataFrame.select用法及代碼示例
- Python pyspark DataFrame.style用法及代碼示例
- Python pyspark DataFrame.sortWithinPartitions用法及代碼示例
- Python pyspark DataFrame.skew用法及代碼示例
- Python pyspark DataFrame.set_index用法及代碼示例
- Python pyspark DataFrame.sub用法及代碼示例
- Python pyspark DataFrame.shape用法及代碼示例
- Python pyspark DataFrame.sample用法及代碼示例
- Python pyspark DataFrame.std用法及代碼示例
- Python pyspark DataFrame.schema用法及代碼示例
- Python pyspark DataFrame.size用法及代碼示例
- Python pyspark DataFrame.show用法及代碼示例
注:本文由純淨天空篩選整理自spark.apache.org大神的英文原創作品 pyspark.pandas.DataFrame.spark.coalesce。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。