本文简要介绍
pyspark.pandas.groupby.GroupBy.filter
的用法。用法:
GroupBy.filter(func: Callable[[FrameLike], FrameLike]) → FrameLike
返回 DataFrame 的副本,排除不满足 func 指定的布尔标准的组中的元素。
- f:函数
应用于每个子帧的函数。应该返回 True 或 False。
- dropna:丢弃未通过过滤器的组。默认为真;
如果为 False,则评估 False 的组将填充 NaN。
- filtered:DataFrame 或系列
参数:
返回:
注意:
每个子帧都被赋予属性‘name’,以防您需要知道您正在处理哪个组。
例子:
>>> df = ps.DataFrame({'A' : ['foo', 'bar', 'foo', 'bar', ... 'foo', 'bar'], ... 'B' : [1, 2, 3, 4, 5, 6], ... 'C' : [2.0, 5., 8., 1., 2., 9.]}, columns=['A', 'B', 'C']) >>> grouped = df.groupby('A') >>> grouped.filter(lambda x: x['B'].mean() > 3.) A B C 1 bar 2 5.0 3 bar 4 1.0 5 bar 6 9.0
>>> df.B.groupby(df.A).filter(lambda x: x.mean() > 3.) 1 2 3 4 5 6 Name: B, dtype: int64
相关用法
- Python pyspark GroupBy.fillna用法及代码示例
- Python pyspark GroupBy.ffill用法及代码示例
- Python pyspark GroupBy.mean用法及代码示例
- Python pyspark GroupBy.head用法及代码示例
- Python pyspark GroupBy.cumsum用法及代码示例
- Python pyspark GroupBy.rank用法及代码示例
- Python pyspark GroupBy.bfill用法及代码示例
- Python pyspark GroupBy.cummin用法及代码示例
- Python pyspark GroupBy.cummax用法及代码示例
- Python pyspark GroupBy.apply用法及代码示例
- Python pyspark GroupBy.diff用法及代码示例
- Python pyspark GroupBy.transform用法及代码示例
- Python pyspark GroupBy.cumcount用法及代码示例
- Python pyspark GroupBy.idxmax用法及代码示例
- Python pyspark GroupBy.shift用法及代码示例
- Python pyspark GroupBy.idxmin用法及代码示例
- Python pyspark GroupBy.nunique用法及代码示例
- Python pyspark GroupBy.median用法及代码示例
- Python pyspark GroupBy.tail用法及代码示例
- Python pyspark GroupBy.size用法及代码示例
- Python pyspark GroupBy.any用法及代码示例
- Python pyspark GroupBy.all用法及代码示例
- Python pyspark GroupBy.get_group用法及代码示例
- Python pyspark GroupBy.backfill用法及代码示例
- Python pyspark GroupBy.cumprod用法及代码示例
注:本文由纯净天空筛选整理自spark.apache.org大神的英文原创作品 pyspark.pandas.groupby.GroupBy.filter。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。