本文簡要介紹
pyspark.pandas.Series.cumsum
的用法。用法:
Series.cumsum(skipna: bool = True) → FrameLike
返回 DataFrame 或係列軸上的累積和。
返回包含累積和的相同大小的 DataFrame 或係列。
注意
cumsum 的當前實現使用 Spark 的 Window 而不指定分區規範。這會導致將所有數據移動到單個機器中的單個分區中,並可能導致嚴重的性能下降。避免對非常大的數據集使用此方法。
- skipna:布爾值,默認 True
排除 NA/空值。如果整行/列為 NA,則結果將為 NA。
- DataFrame 或係列
參數:
返回:
例子:
>>> df = ps.DataFrame([[2.0, 1.0], [3.0, None], [1.0, 0.0]], columns=list('AB')) >>> df A B 0 2.0 1.0 1 3.0 NaN 2 1.0 0.0
默認情況下,遍曆行並在每列中找到總和。
>>> df.cumsum() A B 0 2.0 1.0 1 5.0 NaN 2 6.0 1.0
它在係列中的工作方式相同。
>>> df.A.cumsum() 0 2.0 1 5.0 2 6.0 Name: A, dtype: float64
相關用法
- Python pyspark Series.cummax用法及代碼示例
- Python pyspark Series.cummin用法及代碼示例
- Python pyspark Series.cumprod用法及代碼示例
- Python pyspark Series.cat.ordered用法及代碼示例
- Python pyspark Series.cat.as_unordered用法及代碼示例
- Python pyspark Series.cat.set_categories用法及代碼示例
- Python pyspark Series.copy用法及代碼示例
- Python pyspark Series.cat.rename_categories用法及代碼示例
- Python pyspark Series.cat.as_ordered用法及代碼示例
- Python pyspark Series.count用法及代碼示例
- Python pyspark Series.combine_first用法及代碼示例
- Python pyspark Series.clip用法及代碼示例
- Python pyspark Series.cat.reorder_categories用法及代碼示例
- Python pyspark Series.corr用法及代碼示例
- Python pyspark Series.cat.remove_categories用法及代碼示例
- Python pyspark Series.cat.add_categories用法及代碼示例
- Python pyspark Series.cat.categories用法及代碼示例
- Python pyspark Series.cat.codes用法及代碼示例
- Python pyspark Series.compare用法及代碼示例
- Python pyspark Series.cat.remove_unused_categories用法及代碼示例
- Python pyspark Series.asof用法及代碼示例
- Python pyspark Series.to_frame用法及代碼示例
- Python pyspark Series.rsub用法及代碼示例
- Python pyspark Series.mod用法及代碼示例
- Python pyspark Series.str.join用法及代碼示例
注:本文由純淨天空篩選整理自spark.apache.org大神的英文原創作品 pyspark.pandas.Series.cumsum。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。