本文簡要介紹
pyspark.sql.functions.transform
的用法。用法:
pyspark.sql.functions.transform(col, f)
在對輸入數組中的每個元素應用轉換後返回一個元素數組。
版本 3.1.0 中的新函數。
- col:
Column
或 str 列或表達式的名稱
- f:函數
應用於輸入數組的每個元素的函數。可以采取以下形式之一:
一元
(x: Column) -> Column: ...
- 二進製
(x: Column, i: Column) -> Column...
,其中第二個參數是 元素的從 0 開始的索引。
- 二進製
並且可以使用
Column
的方法,pyspark.sql.functions
和Scala中定義的函數UserDefinedFunctions
。不支持 PythonUserDefinedFunctions
(SPARK-27052)。
- col:
參數:
返回:
例子:
>>> df = spark.createDataFrame([(1, [1, 2, 3, 4])], ("key", "values")) >>> df.select(transform("values", lambda x: x * 2).alias("doubled")).show() +------------+ | doubled| +------------+ |[2, 4, 6, 8]| +------------+
>>> def alternate(x, i): ... return when(i % 2 == 0, x).otherwise(-x) >>> df.select(transform("values", alternate).alias("alternated")).show() +--------------+ | alternated| +--------------+ |[1, -2, 3, -4]| +--------------+
相關用法
- Python pyspark transform_keys用法及代碼示例
- Python pyspark transform_values用法及代碼示例
- Python pyspark translate用法及代碼示例
- Python pyspark trunc用法及代碼示例
- Python pyspark to_csv用法及代碼示例
- Python pyspark to_utc_timestamp用法及代碼示例
- Python pyspark to_date用法及代碼示例
- Python pyspark to_json用法及代碼示例
- Python pyspark timestamp_seconds用法及代碼示例
- Python pyspark to_timestamp用法及代碼示例
- Python pyspark to_avro用法及代碼示例
- Python pyspark to_datetime用法及代碼示例
- Python pyspark to_numeric用法及代碼示例
- Python pyspark create_map用法及代碼示例
- Python pyspark date_add用法及代碼示例
- Python pyspark DataFrame.to_latex用法及代碼示例
- Python pyspark DataStreamReader.schema用法及代碼示例
- Python pyspark MultiIndex.size用法及代碼示例
- Python pyspark arrays_overlap用法及代碼示例
- Python pyspark Series.asof用法及代碼示例
- Python pyspark DataFrame.align用法及代碼示例
- Python pyspark Index.is_monotonic_decreasing用法及代碼示例
- Python pyspark IsotonicRegression用法及代碼示例
- Python pyspark DataFrame.plot.bar用法及代碼示例
- Python pyspark DataFrame.to_delta用法及代碼示例
注:本文由純淨天空篩選整理自spark.apache.org大神的英文原創作品 pyspark.sql.functions.transform。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。