當前位置: 首頁>>代碼示例 >>用法及示例精選 >>正文


Python pyspark element_at用法及代碼示例


本文簡要介紹 pyspark.sql.functions.element_at 的用法。

用法:

pyspark.sql.functions.element_at(col, extraction)

集合函數:如果 col 是數組,則返回提取中給定索引處的數組元素。如果 col 是 map,則返回提取中給定鍵的值。

2.4.0 版中的新函數。

參數

col Column 或 str

包含數組或映射的列的名稱

extraction :

在數組中檢查的索引或在Map中檢查的鍵

注意

該位置不是基於零的,而是基於 1 的索引。

例子

>>> df = spark.createDataFrame([(["a", "b", "c"],), ([],)], ['data'])
>>> df.select(element_at(df.data, 1)).collect()
[Row(element_at(data, 1)='a'), Row(element_at(data, 1)=None)]
>>> df = spark.createDataFrame([({"a": 1.0, "b": 2.0},), ({},)], ['data'])
>>> df.select(element_at(df.data, lit("a"))).collect()
[Row(element_at(data, a)=1.0), Row(element_at(data, a)=None)]

相關用法


注:本文由純淨天空篩選整理自spark.apache.org大神的英文原創作品 pyspark.sql.functions.element_at。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。