本文简要介绍
pyspark.sql.functions.substring
的用法。用法:
pyspark.sql.functions.substring(str, pos, len)
子字符串从
pos
开始,当 str 为 String 类型时,长度为len
;或者在 str 为 Binary 类型时,返回从pos
开始的字节数组切片,长度为len
。1.5.0 版中的新函数。
注意:
该位置不是基于零的,而是基于 1 的索引。
例子:
>>> df = spark.createDataFrame([('abcd',)], ['s',]) >>> df.select(substring(df.s, 1, 2).alias('s')).collect() [Row(s='ab')]
相关用法
- Python pyspark substring_index用法及代码示例
- Python pyspark session_window用法及代码示例
- Python pyspark second用法及代码示例
- Python pyspark slice用法及代码示例
- Python pyspark size用法及代码示例
- Python pyspark struct用法及代码示例
- Python pyspark spark_partition_id用法及代码示例
- Python pyspark split用法及代码示例
- Python pyspark shiftleft用法及代码示例
- Python pyspark schema_of_csv用法及代码示例
- Python pyspark sequence用法及代码示例
- Python pyspark sort_array用法及代码示例
- Python pyspark sha1用法及代码示例
- Python pyspark shiftright用法及代码示例
- Python pyspark shiftrightunsigned用法及代码示例
- Python pyspark sql用法及代码示例
- Python pyspark sha2用法及代码示例
- Python pyspark schema_of_json用法及代码示例
- Python pyspark sentences用法及代码示例
- Python pyspark soundex用法及代码示例
- Python pyspark shuffle用法及代码示例
- Python pyspark create_map用法及代码示例
- Python pyspark date_add用法及代码示例
- Python pyspark DataFrame.to_latex用法及代码示例
- Python pyspark DataStreamReader.schema用法及代码示例
注:本文由纯净天空筛选整理自spark.apache.org大神的英文原创作品 pyspark.sql.functions.substring。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。