当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python PySpark SQL Functions dayofyear方法用法及代码示例


PySpark SQL 函数的 dayofyear(~) 方法提取 PySpark 列中每个日期时间字符串或日期时间值的一年中的第几天。

参数

1.col | stringColumn

从中提取一年中的日期的日期列。

返回值

整数的 Column 对象。

例子

考虑以下带有一些 datetime 值的 PySpark DataFrame:

import datetime
df = spark.createDataFrame([["Alex", datetime.date(1995,12,16)], ["Bob", datetime.date(1995,5,6)]], ["name", "birthday"])
df.show()



+----+----------+
|name|  birthday|
+----+----------+
|Alex|1995-12-16|
| Bob|1995-05-06|
+----+----------+

获取 PySpark DataFrame 中日期值的年份

要获取日期值的年份:

import pyspark.sql.functions as F
df.select(F.dayofyear("birthday").alias("day")).show()



+---+
|day|
+---+
|350|
|126|
+---+

在这里,我们将标签 "day" 分配给 dayofyear(~) 返回的 Column

获取 PySpark DataFrame 中日期字符串的年份

请注意,即使日期是字符串形式,该方法仍然有效:

df = spark.createDataFrame([["Alex", "1995-12-16"], ["Bob", "1990-05-06"]], ["name", "birthday"])
df.select(F.dayofyear("birthday").alias("day")).show()



+---+
|day|
+---+
|350|
|126|
+---+

相关用法


注:本文由纯净天空筛选整理自Isshin Inada大神的英文原创作品 PySpark SQL Functions | dayofyear method。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。