本文简要介绍
pyspark.pandas.window.Rolling.mean
的用法。用法:
Rolling.mean() → FrameLike
计算值的滚动平均值。
注意
此 API 的当前实现使用 Spark 的 Window 而不指定分区规范。这会导致将所有数据移动到单个机器中的单个分区中,并可能导致严重的性能下降。避免对非常大的数据集使用此方法。
- 系列或DataFrame
返回的对象类型由滚动计算的调用者确定。
返回:
例子:
>>> s = ps.Series([4, 3, 5, 2, 6]) >>> s 0 4 1 3 2 5 3 2 4 6 dtype: int64
>>> s.rolling(2).mean() 0 NaN 1 3.5 2 4.0 3 3.5 4 4.0 dtype: float64
>>> s.rolling(3).mean() 0 NaN 1 NaN 2 4.000000 3 3.333333 4 4.333333 dtype: float64
对于 DataFrame,每个滚动平均值都是按列计算的。
>>> df = ps.DataFrame({"A": s.to_numpy(), "B": s.to_numpy() ** 2}) >>> df A B 0 4 16 1 3 9 2 5 25 3 2 4 4 6 36
>>> df.rolling(2).mean() A B 0 NaN NaN 1 3.5 12.5 2 4.0 17.0 3 3.5 14.5 4 4.0 20.0
>>> df.rolling(3).mean() A B 0 NaN NaN 1 NaN NaN 2 4.000000 16.666667 3 3.333333 12.666667 4 4.333333 21.666667
相关用法
- Python pyspark Rolling.max用法及代码示例
- Python pyspark Rolling.min用法及代码示例
- Python pyspark Rolling.count用法及代码示例
- Python pyspark Rolling.sum用法及代码示例
- Python pyspark RowMatrix.numCols用法及代码示例
- Python pyspark RowMatrix.computePrincipalComponents用法及代码示例
- Python pyspark RowMatrix.computeSVD用法及代码示例
- Python pyspark RowMatrix.multiply用法及代码示例
- Python pyspark Row.asDict用法及代码示例
- Python pyspark RobustScaler用法及代码示例
- Python pyspark RowMatrix.computeCovariance用法及代码示例
- Python pyspark RowMatrix.computeGramianMatrix用法及代码示例
- Python pyspark RowMatrix.rows用法及代码示例
- Python pyspark RowMatrix.numRows用法及代码示例
- Python pyspark RowMatrix.columnSimilarities用法及代码示例
- Python pyspark Row用法及代码示例
- Python pyspark RowMatrix.tallSkinnyQR用法及代码示例
- Python pyspark RowMatrix.computeColumnSummaryStatistics用法及代码示例
- Python pyspark RDD.saveAsTextFile用法及代码示例
- Python pyspark RDD.keyBy用法及代码示例
- Python pyspark RDD.sumApprox用法及代码示例
- Python pyspark RDD.lookup用法及代码示例
- Python pyspark RDD.zipWithIndex用法及代码示例
- Python pyspark RDD.sampleByKey用法及代码示例
- Python pyspark RDD.coalesce用法及代码示例
注:本文由纯净天空筛选整理自spark.apache.org大神的英文原创作品 pyspark.pandas.window.Rolling.mean。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。