当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python pyspark unix_timestamp用法及代码示例


本文简要介绍 pyspark.sql.functions.unix_timestamp 的用法。

用法:

pyspark.sql.functions.unix_timestamp(timestamp=None, format='yyyy-MM-dd HH:mm:ss')

使用默认时区和默认语言环境将具有给定模式('yyyy-MM-dd HH:mm:ss',默认情况下)的时间字符串转换为 Unix 时间戳(以秒为单位),如果失败则返回 null。

如果timestamp 为无,则返回当前时间戳。

1.5.0 版中的新函数。

例子

>>> spark.conf.set("spark.sql.session.timeZone", "America/Los_Angeles")
>>> time_df = spark.createDataFrame([('2015-04-08',)], ['dt'])
>>> time_df.select(unix_timestamp('dt', 'yyyy-MM-dd').alias('unix_time')).collect()
[Row(unix_time=1428476400)]
>>> spark.conf.unset("spark.sql.session.timeZone")

相关用法


注:本文由纯净天空筛选整理自spark.apache.org大神的英文原创作品 pyspark.sql.functions.unix_timestamp。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。