本文简要介绍
pyspark.pandas.Series.cumsum
的用法。用法:
Series.cumsum(skipna: bool = True) → FrameLike
返回 DataFrame 或系列轴上的累积和。
返回包含累积和的相同大小的 DataFrame 或系列。
注意
cumsum 的当前实现使用 Spark 的 Window 而不指定分区规范。这会导致将所有数据移动到单个机器中的单个分区中,并可能导致严重的性能下降。避免对非常大的数据集使用此方法。
- skipna:布尔值,默认 True
排除 NA/空值。如果整行/列为 NA,则结果将为 NA。
- DataFrame 或系列
参数:
返回:
例子:
>>> df = ps.DataFrame([[2.0, 1.0], [3.0, None], [1.0, 0.0]], columns=list('AB')) >>> df A B 0 2.0 1.0 1 3.0 NaN 2 1.0 0.0
默认情况下,遍历行并在每列中找到总和。
>>> df.cumsum() A B 0 2.0 1.0 1 5.0 NaN 2 6.0 1.0
它在系列中的工作方式相同。
>>> df.A.cumsum() 0 2.0 1 5.0 2 6.0 Name: A, dtype: float64
相关用法
- Python pyspark Series.cummax用法及代码示例
- Python pyspark Series.cummin用法及代码示例
- Python pyspark Series.cumprod用法及代码示例
- Python pyspark Series.cat.ordered用法及代码示例
- Python pyspark Series.cat.as_unordered用法及代码示例
- Python pyspark Series.cat.set_categories用法及代码示例
- Python pyspark Series.copy用法及代码示例
- Python pyspark Series.cat.rename_categories用法及代码示例
- Python pyspark Series.cat.as_ordered用法及代码示例
- Python pyspark Series.count用法及代码示例
- Python pyspark Series.combine_first用法及代码示例
- Python pyspark Series.clip用法及代码示例
- Python pyspark Series.cat.reorder_categories用法及代码示例
- Python pyspark Series.corr用法及代码示例
- Python pyspark Series.cat.remove_categories用法及代码示例
- Python pyspark Series.cat.add_categories用法及代码示例
- Python pyspark Series.cat.categories用法及代码示例
- Python pyspark Series.cat.codes用法及代码示例
- Python pyspark Series.compare用法及代码示例
- Python pyspark Series.cat.remove_unused_categories用法及代码示例
- Python pyspark Series.asof用法及代码示例
- Python pyspark Series.to_frame用法及代码示例
- Python pyspark Series.rsub用法及代码示例
- Python pyspark Series.mod用法及代码示例
- Python pyspark Series.str.join用法及代码示例
注:本文由纯净天空筛选整理自spark.apache.org大神的英文原创作品 pyspark.pandas.Series.cumsum。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。