本文简要介绍
pyspark.sql.functions.transform_keys
的用法。用法:
pyspark.sql.functions.transform_keys(col, f)
将函数应用于映射中的每个键值对,并返回一个映射,其中包含这些应用程序的结果作为对的新键。
版本 3.1.0 中的新函数。
- col:
Column
或 str 列或表达式的名称
- f:函数
二进制函数
(k: Column, v: Column) -> Column...
可以使用Column
的方法,在pyspark.sql.functions
和 Scala 中定义的函数UserDefinedFunctions
。不支持 PythonUserDefinedFunctions
(SPARK-27052)。
- col:
参数:
返回:
例子:
>>> df = spark.createDataFrame([(1, {"foo": -2.0, "bar": 2.0})], ("id", "data")) >>> df.select(transform_keys( ... "data", lambda k, _: upper(k)).alias("data_upper") ... ).show(truncate=False) +-------------------------+ |data_upper | +-------------------------+ |{BAR -> 2.0, FOO -> -2.0}| +-------------------------+
相关用法
- Python pyspark transform_values用法及代码示例
- Python pyspark transform用法及代码示例
- Python pyspark translate用法及代码示例
- Python pyspark trunc用法及代码示例
- Python pyspark to_csv用法及代码示例
- Python pyspark to_utc_timestamp用法及代码示例
- Python pyspark to_date用法及代码示例
- Python pyspark to_json用法及代码示例
- Python pyspark timestamp_seconds用法及代码示例
- Python pyspark to_timestamp用法及代码示例
- Python pyspark to_avro用法及代码示例
- Python pyspark to_datetime用法及代码示例
- Python pyspark to_numeric用法及代码示例
- Python pyspark create_map用法及代码示例
- Python pyspark date_add用法及代码示例
- Python pyspark DataFrame.to_latex用法及代码示例
- Python pyspark DataStreamReader.schema用法及代码示例
- Python pyspark MultiIndex.size用法及代码示例
- Python pyspark arrays_overlap用法及代码示例
- Python pyspark Series.asof用法及代码示例
- Python pyspark DataFrame.align用法及代码示例
- Python pyspark Index.is_monotonic_decreasing用法及代码示例
- Python pyspark IsotonicRegression用法及代码示例
- Python pyspark DataFrame.plot.bar用法及代码示例
- Python pyspark DataFrame.to_delta用法及代码示例
注:本文由纯净天空筛选整理自spark.apache.org大神的英文原创作品 pyspark.sql.functions.transform_keys。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。