當前位置: 首頁>>代碼示例 >>用法及示例精選 >>正文


Python pyspark concat用法及代碼示例


本文簡要介紹 pyspark.sql.functions.concat 的用法。

用法:

pyspark.sql.functions.concat(*cols)

將多個輸入列連接到一個列中。該函數適用於字符串、二進製和兼容的數組列。

1.5.0 版中的新函數。

例子

>>> df = spark.createDataFrame([('abcd','123')], ['s', 'd'])
>>> df.select(concat(df.s, df.d).alias('s')).collect()
[Row(s='abcd123')]
>>> df = spark.createDataFrame([([1, 2], [3, 4], [5]), ([1, 2], None, [3])], ['a', 'b', 'c'])
>>> df.select(concat(df.a, df.b, df.c).alias("arr")).collect()
[Row(arr=[1, 2, 3, 4, 5]), Row(arr=None)]

相關用法


注:本文由純淨天空篩選整理自spark.apache.org大神的英文原創作品 pyspark.sql.functions.concat。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。