當前位置: 首頁>>編程示例 >>用法及示例精選 >>正文


Python pyspark unix_timestamp用法及代碼示例

本文簡要介紹 pyspark.sql.functions.unix_timestamp 的用法。

用法:

pyspark.sql.functions.unix_timestamp(timestamp=None, format='yyyy-MM-dd HH:mm:ss')

使用默認時區和默認語言環境將具有給定模式('yyyy-MM-dd HH:mm:ss',默認情況下)的時間字符串轉換為 Unix 時間戳(以秒為單位),如果失敗則返回 null。

如果timestamp 為無,則返回當前時間戳。

1.5.0 版中的新函數。

例子

>>> spark.conf.set("spark.sql.session.timeZone", "America/Los_Angeles")
>>> time_df = spark.createDataFrame([('2015-04-08',)], ['dt'])
>>> time_df.select(unix_timestamp('dt', 'yyyy-MM-dd').alias('unix_time')).collect()
[Row(unix_time=1428476400)]
>>> spark.conf.unset("spark.sql.session.timeZone")

相關用法


注:本文由純淨天空篩選整理自spark.apache.org大神的英文原創作品 pyspark.sql.functions.unix_timestamp。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。