当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python pyspark GroupBy.ffill用法及代码示例


本文简要介绍 pyspark.pandas.groupby.GroupBy.ffill 的用法。

用法:

GroupBy.ffill(limit: Optional[int] = None) → FrameLike

DataFrame.fillna()method=`ffill` 的同义词。

参数

axis{0 或 index }

不支持 1 和 columns

inplace布尔值,默认为 False

就地填充(不创建新对象)

limit整数,默认无

如果指定了方法,则这是要向前/向后填充的连续 NaN 值的最大数量。换句话说,如果存在连续 NaN 数量超过此数量的间隙,则只会部分填充。如果未指定方法,则这是沿整个轴填充 NaNs 的最大条目数。如果不是 None 则必须大于 0

返回

DataFrame

DataFrame 已填充 NA 条目。

例子

>>> df = ps.DataFrame({
...     'A': [1, 1, 2, 2],
...     'B': [2, 4, None, 3],
...     'C': [None, None, None, 1],
...     'D': [0, 1, 5, 4]
...     },
...     columns=['A', 'B', 'C', 'D'])
>>> df
   A    B    C  D
0  1  2.0  NaN  0
1  1  4.0  NaN  1
2  2  NaN  NaN  5
3  2  3.0  1.0  4

向前传播非空值。

>>> df.groupby(['A']).ffill().sort_index()
     B    C  D
0  2.0  NaN  0
1  4.0  NaN  1
2  NaN  NaN  5
3  3.0  1.0  4

相关用法


注:本文由纯净天空筛选整理自spark.apache.org大神的英文原创作品 pyspark.pandas.groupby.GroupBy.ffill。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。