为什么在解析字符串列时tou date函数为pyspark中的某些记录提供空值

wfsdck30  于 2021-07-12  发布在  Spark
关注(0)|答案(1)|浏览(188)


从to\u date函数和unix\u timestamp到date的字符串的解析与从unix\u unixtime到date的字符串的解析有什么区别吗。谁能解释一下吗。

wribegjk

wribegjk1#

你应该使用 h ( MM/dd/yy hh:mm aa )而不是 H ( MM/dd/yy HH:mm aa )因为你的时间是“上午的钟点,下午的钟点”,而不是“一天的钟点”。有关日期时间模式字符串的正确用法,请参阅文档。
您可能还希望使用一种适用于spark 3.0的模式,例如。

M/d/yy h:mm a

这样就不需要将时间戳解析器设置为遗留模式。这只需要一封信 M , d 以及 h 因为根据文件,信件的数量。。。
表示此类型的日期时间模式可以使用的最大字母数
而对于 a ...
图案字母计数必须为1。 from_unixtime(unix_timestamp()) 返回时间戳,而 to_date 返回日期。还有一个函数 to_timestamp 基本上和 from_unixtime(unix_timestamp()) .

相关问题