本文简要介绍
pyspark.sql.functions.transform_values
的用法。用法:
pyspark.sql.functions.transform_values(col, f)
将一个函数应用于映射中的每个键值对,并返回一个映射,其中包含这些应用程序的结果作为对的新值。
版本 3.1.0 中的新函数。
- col:
Column
或 str 列或表达式的名称
- f:函数
二进制函数
(k: Column, v: Column) -> Column...
可以使用Column
的方法,在pyspark.sql.functions
和 Scala 中定义的函数UserDefinedFunctions
。不支持 PythonUserDefinedFunctions
(SPARK-27052)。
- col:
参数:
返回:
例子:
>>> df = spark.createDataFrame([(1, {"IT": 10.0, "SALES": 2.0, "OPS": 24.0})], ("id", "data")) >>> df.select(transform_values( ... "data", lambda k, v: when(k.isin("IT", "OPS"), v + 10.0).otherwise(v) ... ).alias("new_data")).show(truncate=False) +---------------------------------------+ |new_data | +---------------------------------------+ |{OPS -> 34.0, IT -> 20.0, SALES -> 2.0}| +---------------------------------------+
相关用法
- Python pyspark transform_keys用法及代码示例
- Python pyspark transform用法及代码示例
- Python pyspark translate用法及代码示例
- Python pyspark trunc用法及代码示例
- Python pyspark to_csv用法及代码示例
- Python pyspark to_utc_timestamp用法及代码示例
- Python pyspark to_date用法及代码示例
- Python pyspark to_json用法及代码示例
- Python pyspark timestamp_seconds用法及代码示例
- Python pyspark to_timestamp用法及代码示例
- Python pyspark to_avro用法及代码示例
- Python pyspark to_datetime用法及代码示例
- Python pyspark to_numeric用法及代码示例
- Python pyspark create_map用法及代码示例
- Python pyspark date_add用法及代码示例
- Python pyspark DataFrame.to_latex用法及代码示例
- Python pyspark DataStreamReader.schema用法及代码示例
- Python pyspark MultiIndex.size用法及代码示例
- Python pyspark arrays_overlap用法及代码示例
- Python pyspark Series.asof用法及代码示例
- Python pyspark DataFrame.align用法及代码示例
- Python pyspark Index.is_monotonic_decreasing用法及代码示例
- Python pyspark IsotonicRegression用法及代码示例
- Python pyspark DataFrame.plot.bar用法及代码示例
- Python pyspark DataFrame.to_delta用法及代码示例
注:本文由纯净天空筛选整理自spark.apache.org大神的英文原创作品 pyspark.sql.functions.transform_values。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。