PySpark - to_date函数返回NULL

pxy2qtax  于 2023-10-15  发布在  Spark
关注(0)|答案(1)|浏览(165)

我试图将我的StringType()列转换为一个新的DateType()列,但它给了我NULL作为输出。
Sample Dataset
获取输出如下:
Output
尝试以下代码:

  1. spark.sql("set spark.sql.legacy.timeParserPolicy=LEGACY")
  2. workerdf = worker_df.withColumn('JOINING_DATE', to_date(col('JOINING_DATE_STR'), "DD-MM-YYYY"))
7ajki6be

7ajki6be1#

使用正确的日期格式转换dd-MM-yyyy

示例代码:

  1. from pyspark.sql.functions import to_date, col
  2. spark.sql("set spark.sql.legacy.timeParserPolicy=LEGACY")
  3. df1 = df1.withColumn('JOINING_DATE', to_date(col('JOINING_DATE STR'), 'dd-MM-yyyy'))
  4. df1.show()

执行输出:

相关问题