Fis*_*der 2 sql date-format apache-spark apache-spark-sql pyspark
我需要将这个给定的日期格式转换2019-10-22 00:00:00为:2019-10-22T00:00:00.000Z
我知道这可以通过以下方式在某些数据库中完成:
在 AWS Redshift 中,您可以使用以下方法实现此目的:
TO_DATE('{RUN_DATE_YYYY/MM/DD}', 'YYYY/MM/DD') || 'T00:00:00.000Z' AS VERSION_TIME
但是我的平台是 Spark SQL,所以以上两个都不适合我,我能得到的最好的就是使用这个:
concat(d2.VERSION_TIME, 'T00:00:00.000Z') as VERSION_TIME
这有点hacky,但仍然不完全正确,有了这个,我得到了这个日期格式:2019-10-25 00:00:00T00:00:00.000Z,但是 00:00:00字符串中间的这部分是多余的,我不能把它留在那里。
任何人在这里有任何见解将不胜感激!
这是我认为的自然方式。
spark.sql("""SELECT date_format(to_timestamp("2019-10-22 00:00:00", "yyyy-MM-dd HH:mm:ss"), "yyyy-MM-dd'T'HH:mm:ss.SSS'Z'") as date""").show(false)
结果是:
+------------------------+
|date                    |
+------------------------+
|2019-10-22T00:00:00.000Z|
+------------------------+
| 归档时间: | 
 | 
| 查看次数: | 13850 次 | 
| 最近记录: |