本文簡要介紹
pyspark.pandas.groupby.GroupBy.ffill
的用法。用法:
GroupBy.ffill(limit: Optional[int] = None) → FrameLike
DataFrame.fillna()
與method=`ffill`
的同義詞。- axis:{0 或
index
} 不支持 1 和
columns
。- inplace:布爾值,默認為 False
就地填充(不創建新對象)
- limit:整數,默認無
如果指定了方法,則這是要向前/向後填充的連續 NaN 值的最大數量。換句話說,如果存在連續 NaN 數量超過此數量的間隙,則隻會部分填充。如果未指定方法,則這是沿整個軸填充 NaNs 的最大條目數。如果不是 None 則必須大於 0
- axis:{0 或
- DataFrame
DataFrame 已填充 NA 條目。
參數:
返回:
例子:
>>> df = ps.DataFrame({ ... 'A': [1, 1, 2, 2], ... 'B': [2, 4, None, 3], ... 'C': [None, None, None, 1], ... 'D': [0, 1, 5, 4] ... }, ... columns=['A', 'B', 'C', 'D']) >>> df A B C D 0 1 2.0 NaN 0 1 1 4.0 NaN 1 2 2 NaN NaN 5 3 2 3.0 1.0 4
向前傳播非空值。
>>> df.groupby(['A']).ffill().sort_index() B C D 0 2.0 NaN 0 1 4.0 NaN 1 2 NaN NaN 5 3 3.0 1.0 4
相關用法
- Python pyspark GroupBy.fillna用法及代碼示例
- Python pyspark GroupBy.filter用法及代碼示例
- Python pyspark GroupBy.mean用法及代碼示例
- Python pyspark GroupBy.head用法及代碼示例
- Python pyspark GroupBy.cumsum用法及代碼示例
- Python pyspark GroupBy.rank用法及代碼示例
- Python pyspark GroupBy.bfill用法及代碼示例
- Python pyspark GroupBy.cummin用法及代碼示例
- Python pyspark GroupBy.cummax用法及代碼示例
- Python pyspark GroupBy.apply用法及代碼示例
- Python pyspark GroupBy.diff用法及代碼示例
- Python pyspark GroupBy.transform用法及代碼示例
- Python pyspark GroupBy.cumcount用法及代碼示例
- Python pyspark GroupBy.idxmax用法及代碼示例
- Python pyspark GroupBy.shift用法及代碼示例
- Python pyspark GroupBy.idxmin用法及代碼示例
- Python pyspark GroupBy.nunique用法及代碼示例
- Python pyspark GroupBy.median用法及代碼示例
- Python pyspark GroupBy.tail用法及代碼示例
- Python pyspark GroupBy.size用法及代碼示例
- Python pyspark GroupBy.any用法及代碼示例
- Python pyspark GroupBy.all用法及代碼示例
- Python pyspark GroupBy.get_group用法及代碼示例
- Python pyspark GroupBy.backfill用法及代碼示例
- Python pyspark GroupBy.cumprod用法及代碼示例
注:本文由純淨天空篩選整理自spark.apache.org大神的英文原創作品 pyspark.pandas.groupby.GroupBy.ffill。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。