本文简要介绍
pyspark.sql.functions.slice
的用法。用法:
pyspark.sql.functions.slice(x, start, length)
集合函数:从索引
start
(数组索引从 1 开始,如果start
为负数,则从末尾)返回一个包含x
中所有元素的数组,并指定length
。2.4.0 版中的新函数。
例子:
>>> df = spark.createDataFrame([([1, 2, 3],), ([4, 5],)], ['x']) >>> df.select(slice(df.x, 2, 2).alias("sliced")).collect() [Row(sliced=[2, 3]), Row(sliced=[5])]
相关用法
- Python pyspark session_window用法及代码示例
- Python pyspark second用法及代码示例
- Python pyspark size用法及代码示例
- Python pyspark struct用法及代码示例
- Python pyspark spark_partition_id用法及代码示例
- Python pyspark split用法及代码示例
- Python pyspark shiftleft用法及代码示例
- Python pyspark schema_of_csv用法及代码示例
- Python pyspark sequence用法及代码示例
- Python pyspark sort_array用法及代码示例
- Python pyspark sha1用法及代码示例
- Python pyspark substring用法及代码示例
- Python pyspark shiftright用法及代码示例
- Python pyspark shiftrightunsigned用法及代码示例
- Python pyspark sql用法及代码示例
- Python pyspark sha2用法及代码示例
- Python pyspark substring_index用法及代码示例
- Python pyspark schema_of_json用法及代码示例
- Python pyspark sentences用法及代码示例
- Python pyspark soundex用法及代码示例
- Python pyspark shuffle用法及代码示例
- Python pyspark create_map用法及代码示例
- Python pyspark date_add用法及代码示例
- Python pyspark DataFrame.to_latex用法及代码示例
- Python pyspark DataStreamReader.schema用法及代码示例
注:本文由纯净天空筛选整理自spark.apache.org大神的英文原创作品 pyspark.sql.functions.slice。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。