当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python pyspark concat用法及代码示例


本文简要介绍 pyspark.sql.functions.concat 的用法。

用法:

pyspark.sql.functions.concat(*cols)

将多个输入列连接到一个列中。该函数适用于字符串、二进制和兼容的数组列。

1.5.0 版中的新函数。

例子

>>> df = spark.createDataFrame([('abcd','123')], ['s', 'd'])
>>> df.select(concat(df.s, df.d).alias('s')).collect()
[Row(s='abcd123')]
>>> df = spark.createDataFrame([([1, 2], [3, 4], [5]), ([1, 2], None, [3])], ['a', 'b', 'c'])
>>> df.select(concat(df.a, df.b, df.c).alias("arr")).collect()
[Row(arr=[1, 2, 3, 4, 5]), Row(arr=None)]

相关用法


注:本文由纯净天空筛选整理自spark.apache.org大神的英文原创作品 pyspark.sql.functions.concat。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。