当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python PySpark SQL Functions upper方法用法及代码示例


PySpark SQL 函数的 upper(~) 方法返回一个新的 PySpark Column,其中指定列大写。

参数

1.col | stringColumn

要执行大写操作的列。

返回值

PySpark 列 (pyspark.sql.column.Column)。

例子

考虑以下PySpark DataFrame:

df = spark.createDataFrame([["alex", 25], ["bOb", 30]], ["name", "age"])
df.show()



+----+---+
|name|age|
+----+---+
|alex| 25|
| bOb| 30|
+----+---+

PySpark DataFrame 中的大写字符串

要将 name 列中的字符串大写:

import pyspark.sql.functions as F
df.select(F.upper(df.name)).show()



+-----------+
|upper(name)|
+-----------+
|       ALEX|
|        BOB|
+-----------+

请注意,将列标签作为字符串传递也可以:

import pyspark.sql.functions as F
df.select(F.upper("name")).show()



+-----------+
|upper(name)|
+-----------+
|       ALEX|
|        BOB|
+-----------+

将 PySpark 中的列替换为大写列

要将 name 列替换为大写版本,请使用 withColumn(~) 方法:

import pyspark.sql.functions as F
df.withColumn("name", F.upper(df.name)).show()



+----+---+
|name|age|
+----+---+
|ALEX| 25|
| BOB| 30|
+----+---+

相关用法


注:本文由纯净天空筛选整理自Isshin Inada大神的英文原创作品 PySpark SQL Functions | upper method。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。