本文简要介绍
pyspark.pandas.window.Rolling.max
的用法。用法:
Rolling.max() → FrameLike
计算滚动最大值。
注意
此 API 的当前实现使用 Spark 的 Window 而不指定分区规范。这会导致将所有数据移动到单个机器中的单个分区中,并可能导致严重的性能下降。避免对非常大的数据集使用此方法。
- 系列或DataFrame
返回类型由调用者决定。
返回:
例子:
>>> s = ps.Series([4, 3, 5, 2, 6]) >>> s 0 4 1 3 2 5 3 2 4 6 dtype: int64
>>> s.rolling(2).max() 0 NaN 1 4.0 2 5.0 3 5.0 4 6.0 dtype: float64
>>> s.rolling(3).max() 0 NaN 1 NaN 2 5.0 3 5.0 4 6.0 dtype: float64
对于 DataFrame,每个滚动最大值都是按列计算的。
>>> df = ps.DataFrame({"A": s.to_numpy(), "B": s.to_numpy() ** 2}) >>> df A B 0 4 16 1 3 9 2 5 25 3 2 4 4 6 36
>>> df.rolling(2).max() A B 0 NaN NaN 1 4.0 16.0 2 5.0 25.0 3 5.0 25.0 4 6.0 36.0
>>> df.rolling(3).max() A B 0 NaN NaN 1 NaN NaN 2 5.0 25.0 3 5.0 25.0 4 6.0 36.0
相关用法
- Python pyspark Rolling.mean用法及代码示例
- Python pyspark Rolling.min用法及代码示例
- Python pyspark Rolling.count用法及代码示例
- Python pyspark Rolling.sum用法及代码示例
- Python pyspark RowMatrix.numCols用法及代码示例
- Python pyspark RowMatrix.computePrincipalComponents用法及代码示例
- Python pyspark RowMatrix.computeSVD用法及代码示例
- Python pyspark RowMatrix.multiply用法及代码示例
- Python pyspark Row.asDict用法及代码示例
- Python pyspark RobustScaler用法及代码示例
- Python pyspark RowMatrix.computeCovariance用法及代码示例
- Python pyspark RowMatrix.computeGramianMatrix用法及代码示例
- Python pyspark RowMatrix.rows用法及代码示例
- Python pyspark RowMatrix.numRows用法及代码示例
- Python pyspark RowMatrix.columnSimilarities用法及代码示例
- Python pyspark Row用法及代码示例
- Python pyspark RowMatrix.tallSkinnyQR用法及代码示例
- Python pyspark RowMatrix.computeColumnSummaryStatistics用法及代码示例
- Python pyspark RDD.saveAsTextFile用法及代码示例
- Python pyspark RDD.keyBy用法及代码示例
- Python pyspark RDD.sumApprox用法及代码示例
- Python pyspark RDD.lookup用法及代码示例
- Python pyspark RDD.zipWithIndex用法及代码示例
- Python pyspark RDD.sampleByKey用法及代码示例
- Python pyspark RDD.coalesce用法及代码示例
注:本文由纯净天空筛选整理自spark.apache.org大神的英文原创作品 pyspark.pandas.window.Rolling.max。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。