本文简要介绍
pyspark.pandas.groupby.GroupBy.ffill
的用法。用法:
GroupBy.ffill(limit: Optional[int] = None) → FrameLike
DataFrame.fillna()
与method=`ffill`
的同义词。- axis:{0 或
index
} 不支持 1 和
columns
。- inplace:布尔值,默认为 False
就地填充(不创建新对象)
- limit:整数,默认无
如果指定了方法,则这是要向前/向后填充的连续 NaN 值的最大数量。换句话说,如果存在连续 NaN 数量超过此数量的间隙,则只会部分填充。如果未指定方法,则这是沿整个轴填充 NaNs 的最大条目数。如果不是 None 则必须大于 0
- axis:{0 或
- DataFrame
DataFrame 已填充 NA 条目。
参数:
返回:
例子:
>>> df = ps.DataFrame({ ... 'A': [1, 1, 2, 2], ... 'B': [2, 4, None, 3], ... 'C': [None, None, None, 1], ... 'D': [0, 1, 5, 4] ... }, ... columns=['A', 'B', 'C', 'D']) >>> df A B C D 0 1 2.0 NaN 0 1 1 4.0 NaN 1 2 2 NaN NaN 5 3 2 3.0 1.0 4
向前传播非空值。
>>> df.groupby(['A']).ffill().sort_index() B C D 0 2.0 NaN 0 1 4.0 NaN 1 2 NaN NaN 5 3 3.0 1.0 4
相关用法
- Python pyspark GroupBy.fillna用法及代码示例
- Python pyspark GroupBy.filter用法及代码示例
- Python pyspark GroupBy.mean用法及代码示例
- Python pyspark GroupBy.head用法及代码示例
- Python pyspark GroupBy.cumsum用法及代码示例
- Python pyspark GroupBy.rank用法及代码示例
- Python pyspark GroupBy.bfill用法及代码示例
- Python pyspark GroupBy.cummin用法及代码示例
- Python pyspark GroupBy.cummax用法及代码示例
- Python pyspark GroupBy.apply用法及代码示例
- Python pyspark GroupBy.diff用法及代码示例
- Python pyspark GroupBy.transform用法及代码示例
- Python pyspark GroupBy.cumcount用法及代码示例
- Python pyspark GroupBy.idxmax用法及代码示例
- Python pyspark GroupBy.shift用法及代码示例
- Python pyspark GroupBy.idxmin用法及代码示例
- Python pyspark GroupBy.nunique用法及代码示例
- Python pyspark GroupBy.median用法及代码示例
- Python pyspark GroupBy.tail用法及代码示例
- Python pyspark GroupBy.size用法及代码示例
- Python pyspark GroupBy.any用法及代码示例
- Python pyspark GroupBy.all用法及代码示例
- Python pyspark GroupBy.get_group用法及代码示例
- Python pyspark GroupBy.backfill用法及代码示例
- Python pyspark GroupBy.cumprod用法及代码示例
注:本文由纯净天空筛选整理自spark.apache.org大神的英文原创作品 pyspark.pandas.groupby.GroupBy.ffill。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。