本文簡要介紹
pyspark.sql.functions.from_utc_timestamp
的用法。用法:
pyspark.sql.functions.from_utc_timestamp(timestamp, tz)
這是支持 TIMESTAMP WITHOUT TIMEZONE 的數據庫的常用函數。此函數采用時間戳timezone-agnostic,並將其解釋為 UTC 時間戳,並將該時間戳呈現為給定時區中的時間戳。
但是,Spark 中的時間戳表示距 Unix 紀元的微秒數,而不是timezone-agnostic。所以在 Spark 中,這個函數隻是將時間戳值從 UTC 時區轉移到給定的時區。
如果輸入是帶有時區的字符串,則此函數可能會返回令人困惑的結果,例如'2018-03-13T06:18:23+00:00'。原因是,Spark首先根據字符串中的時區將字符串轉換為時間戳,最後根據會話本地時區將時間戳轉換為字符串來顯示結果。
1.5.0 版中的新函數。
參數:
例子:
>>> df = spark.createDataFrame([('1997-02-28 10:30:00', 'JST')], ['ts', 'tz']) >>> df.select(from_utc_timestamp(df.ts, "PST").alias('local_time')).collect() [Row(local_time=datetime.datetime(1997, 2, 28, 2, 30))] >>> df.select(from_utc_timestamp(df.ts, df.tz).alias('local_time')).collect() [Row(local_time=datetime.datetime(1997, 2, 28, 19, 30))]
相關用法
- Python pyspark from_unixtime用法及代碼示例
- Python pyspark from_csv用法及代碼示例
- Python pyspark from_json用法及代碼示例
- Python pyspark from_avro用法及代碼示例
- Python pyspark flatten用法及代碼示例
- Python pyspark forall用法及代碼示例
- Python pyspark filter用法及代碼示例
- Python pyspark factorial用法及代碼示例
- Python pyspark format_string用法及代碼示例
- Python pyspark create_map用法及代碼示例
- Python pyspark date_add用法及代碼示例
- Python pyspark DataFrame.to_latex用法及代碼示例
- Python pyspark DataStreamReader.schema用法及代碼示例
- Python pyspark MultiIndex.size用法及代碼示例
- Python pyspark arrays_overlap用法及代碼示例
- Python pyspark Series.asof用法及代碼示例
- Python pyspark DataFrame.align用法及代碼示例
- Python pyspark Index.is_monotonic_decreasing用法及代碼示例
- Python pyspark IsotonicRegression用法及代碼示例
- Python pyspark DataFrame.plot.bar用法及代碼示例
- Python pyspark DataFrame.to_delta用法及代碼示例
- Python pyspark element_at用法及代碼示例
- Python pyspark explode用法及代碼示例
- Python pyspark MultiIndex.hasnans用法及代碼示例
- Python pyspark Series.to_frame用法及代碼示例
注:本文由純淨天空篩選整理自spark.apache.org大神的英文原創作品 pyspark.sql.functions.from_utc_timestamp。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。