本文简要介绍
pyspark.pandas.Index.shift
的用法。用法:
Index.shift(periods: int = 1, fill_value: Optional[Any] = None) → IndexOpsLike
按所需的周期数移动系列/索引。
注意
当前的 shift 实现使用 Spark 的 Window 而不指定分区规范。这会导致将所有数据移动到单个机器中的单个分区中,并可能导致严重的性能下降。避免对非常大的数据集使用此方法。
- periods:int
要转移的周期数。可以是正面的或负面的。
- fill_value:对象,可选
用于新引入的缺失值的标量值。默认值取决于 self 的数据类型。对于数值数据,使用np.nan。
- 输入系列/索引的副本,已移动。
参数:
返回:
例子:
>>> df = ps.DataFrame({'Col1': [10, 20, 15, 30, 45], ... 'Col2': [13, 23, 18, 33, 48], ... 'Col3': [17, 27, 22, 37, 52]}, ... columns=['Col1', 'Col2', 'Col3'])
>>> df.Col1.shift(periods=3) 0 NaN 1 NaN 2 NaN 3 10.0 4 20.0 Name: Col1, dtype: float64
>>> df.Col2.shift(periods=3, fill_value=0) 0 0 1 0 2 0 3 13 4 23 Name: Col2, dtype: int64
>>> df.index.shift(periods=3, fill_value=0) Int64Index([0, 0, 0, 0, 1], dtype='int64')
相关用法
- Python pyspark Index.shape用法及代码示例
- Python pyspark Index.sort_values用法及代码示例
- Python pyspark Index.symmetric_difference用法及代码示例
- Python pyspark Index.size用法及代码示例
- Python pyspark Index.set_names用法及代码示例
- Python pyspark Index.spark.transform用法及代码示例
- Python pyspark Index.is_monotonic_decreasing用法及代码示例
- Python pyspark Index.values用法及代码示例
- Python pyspark Index.drop_duplicates用法及代码示例
- Python pyspark Index.value_counts用法及代码示例
- Python pyspark Index.map用法及代码示例
- Python pyspark Index.equals用法及代码示例
- Python pyspark Index.argmin用法及代码示例
- Python pyspark Index.argmax用法及代码示例
- Python pyspark Index.item用法及代码示例
- Python pyspark Index.insert用法及代码示例
- Python pyspark Index.nlevels用法及代码示例
- Python pyspark Index.min用法及代码示例
- Python pyspark Index.copy用法及代码示例
- Python pyspark Index.difference用法及代码示例
- Python pyspark Index.to_list用法及代码示例
- Python pyspark Index.dropna用法及代码示例
- Python pyspark Index.repeat用法及代码示例
- Python pyspark Index.notna用法及代码示例
- Python pyspark Index.has_duplicates用法及代码示例
注:本文由纯净天空筛选整理自spark.apache.org大神的英文原创作品 pyspark.pandas.Index.shift。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。