當前位置: 首頁>>代碼示例 >>用法及示例精選 >>正文


Python pyspark GroupBy.ffill用法及代碼示例


本文簡要介紹 pyspark.pandas.groupby.GroupBy.ffill 的用法。

用法:

GroupBy.ffill(limit: Optional[int] = None) → FrameLike

DataFrame.fillna()method=`ffill` 的同義詞。

參數

axis{0 或 index }

不支持 1 和 columns

inplace布爾值,默認為 False

就地填充(不創建新對象)

limit整數,默認無

如果指定了方法,則這是要向前/向後填充的連續 NaN 值的最大數量。換句話說,如果存在連續 NaN 數量超過此數量的間隙,則隻會部分填充。如果未指定方法,則這是沿整個軸填充 NaNs 的最大條目數。如果不是 None 則必須大於 0

返回

DataFrame

DataFrame 已填充 NA 條目。

例子

>>> df = ps.DataFrame({
...     'A': [1, 1, 2, 2],
...     'B': [2, 4, None, 3],
...     'C': [None, None, None, 1],
...     'D': [0, 1, 5, 4]
...     },
...     columns=['A', 'B', 'C', 'D'])
>>> df
   A    B    C  D
0  1  2.0  NaN  0
1  1  4.0  NaN  1
2  2  NaN  NaN  5
3  2  3.0  1.0  4

向前傳播非空值。

>>> df.groupby(['A']).ffill().sort_index()
     B    C  D
0  2.0  NaN  0
1  4.0  NaN  1
2  NaN  NaN  5
3  3.0  1.0  4

相關用法


注:本文由純淨天空篩選整理自spark.apache.org大神的英文原創作品 pyspark.pandas.groupby.GroupBy.ffill。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。