當前位置: 首頁>>代碼示例 >>用法及示例精選 >>正文


Python PySpark SQL Functions upper方法用法及代碼示例


PySpark SQL 函數的 upper(~) 方法返回一個新的 PySpark Column,其中指定列大寫。

參數

1.col | stringColumn

要執行大寫操作的列。

返回值

PySpark 列 (pyspark.sql.column.Column)。

例子

考慮以下PySpark DataFrame:

df = spark.createDataFrame([["alex", 25], ["bOb", 30]], ["name", "age"])
df.show()



+----+---+
|name|age|
+----+---+
|alex| 25|
| bOb| 30|
+----+---+

PySpark DataFrame 中的大寫字符串

要將 name 列中的字符串大寫:

import pyspark.sql.functions as F
df.select(F.upper(df.name)).show()



+-----------+
|upper(name)|
+-----------+
|       ALEX|
|        BOB|
+-----------+

請注意,將列標簽作為字符串傳遞也可以:

import pyspark.sql.functions as F
df.select(F.upper("name")).show()



+-----------+
|upper(name)|
+-----------+
|       ALEX|
|        BOB|
+-----------+

將 PySpark 中的列替換為大寫列

要將 name 列替換為大寫版本,請使用 withColumn(~) 方法:

import pyspark.sql.functions as F
df.withColumn("name", F.upper(df.name)).show()



+----+---+
|name|age|
+----+---+
|ALEX| 25|
| BOB| 30|
+----+---+

相關用法


注:本文由純淨天空篩選整理自Isshin Inada大神的英文原創作品 PySpark SQL Functions | upper method。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。