PySpark SQL 函数的 lit(~)
方法创建具有指定值的 Column
对象。
参数
1. col
| value
填充该列的值。
返回值
Column
对象。
例子
考虑以下PySpark DataFrame:
df = spark.createDataFrame([["Alex", 20], ["Bob", 30]], ["name", "age"])
df.show()
+----+---+
|name|age|
+----+---+
|Alex| 20|
| Bob| 30|
+----+---+
在 PySpark DataFrame 中创建常量列
要创建一个新的 PySpark DataFrame,其中包含 df
的 name
列以及由 True
值组成的名为 is_single
的新列:
import pyspark.sql.functions as F
df2 = df.select(F.col("name"), F.lit(True).alias("is_single"))
df2.show()
+----+---------+
|name|is_single|
+----+---------+
|Alex| true|
| Bob| true|
+----+---------+
这里,F.lit(True)
返回一个Column
对象,该对象具有一个名为alias(~)
的方法,用于分配标签。
请注意,您可以使用 withColumn(~)
方法附加新的常量列:
import pyspark.sql.functions as F
df = spark.createDataFrame([["Alex", 20], ["Bob", 30]], ["name", "age"])
df_new = df.withColumn("is_single", F.lit(True))
df_new.show()
+----+---+---------+
|name|age|is_single|
+----+---+---------+
|Alex| 20| true|
| Bob| 30| true|
+----+---+---------+
创建一个列,其值基于 PySpark 中的条件
我们还可以使用 lit(~)
创建一个列,其值取决于某些条件:
import pyspark.sql.functions as F
col = df.when(F.col("age") <= 20, F.lit("junior")).otherwise(F.lit("senior"))
df3 = df.withColumn("status", col)
df3.show()
+----+---+------+
|name|age|status|
+----+---+------+
|Alex| 20|junior|
| Bob| 30|senior|
+----+---+------+
请注意以下事项:
-
我们使用
when(~)
和otherwise(~)
模式有条件地填充列的值。 -
我们正在使用
withColumn(~)
方法附加一个名为status
的新列。 -
F.lit("junior")
实际上可以替换为"junior"
- 这只是为了演示lit(~)
的一种用法。
相关用法
- Python PySpark SQL Functions length方法用法及代码示例
- Python PySpark SQL Functions last方法用法及代码示例
- Python PySpark SQL Functions lower方法用法及代码示例
- Python PySpark SQL Functions least方法用法及代码示例
- Python PySpark SQL Functions split方法用法及代码示例
- Python PySpark SQL Functions repeat方法用法及代码示例
- Python PySpark SQL Functions explode方法用法及代码示例
- Python PySpark SQL Functions concat方法用法及代码示例
- Python PySpark SQL Functions instr方法用法及代码示例
- Python PySpark SQL Functions count_distinct方法用法及代码示例
- Python PySpark SQL Functions dayofmonth方法用法及代码示例
- Python PySpark SQL Functions date_add方法用法及代码示例
- Python PySpark SQL Functions array方法用法及代码示例
- Python PySpark SQL Functions concat_ws方法用法及代码示例
- Python PySpark SQL Functions col方法用法及代码示例
- Python PySpark SQL Functions translate方法用法及代码示例
- Python PySpark SQL Functions dayofweek方法用法及代码示例
- Python PySpark SQL Functions expr方法用法及代码示例
- Python PySpark SQL Functions regexp_extract方法用法及代码示例
- Python PySpark SQL Functions regexp_replace方法用法及代码示例
- Python PySpark SQL Functions round方法用法及代码示例
- Python PySpark SQL Functions countDistinct方法用法及代码示例
- Python PySpark SQL Functions date_format方法用法及代码示例
- Python PySpark SQL Functions collect_list方法用法及代码示例
- Python PySpark SQL Functions upper方法用法及代码示例
注:本文由纯净天空筛选整理自Isshin Inada大神的英文原创作品 PySpark SQL Functions | lit method。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。