avro write java.sql.timestamp转换错误

8cdiaqws  于 2021-06-06  发布在  Kafka
关注(0)|答案(1)|浏览(499)

我需要给kafka分区写一个时间戳,然后从中读取它。我为此定义了一个avro模式:

{ "namespace":"sample",
  "type":"record",
  "name":"TestData",
  "fields":[
    {"name": "update_database_time", "type": "long", "logicalType": "timestamp-millis"}
  ]
}

但是,producer.send行中出现转换错误:

java.lang.ClassCastException: java.sql.Timestamp cannot be cast to java.lang.Long

我怎样才能解决这个问题?
以下是将时间戳写入Kafka的代码:

val tmstpOffset = testDataDF
      .select("update_database_time")
      .orderBy(desc("update_database_time"))
      .head()
      .getTimestamp(0)

    val avroRecord = new GenericData.Record(parseAvroSchemaFromFile("/avro-offset-schema.json"))
    avroRecord.put("update_database_time", tmstpOffset)

    val producer = new KafkaProducer[String, GenericRecord](kafkaParams().asJava)
    val data = new ProducerRecord[String, GenericRecord]("app_state_test7", avroRecord)
    producer.send(data)
9rnv2umw

9rnv2umw1#

avro不直接支持时间戳,但逻辑上支持long。因此,您可以将其转换为long并按如下方式使用。unix\u timestamp()函数用于转换,但是如果您有特定的日期格式,请使用unix\u timestamp(col,dataformat)重载函数。

import org.apache.spark.sql.functions._
val tmstpOffset = testDataDF
      .select((unix_timestamp("update_database_time")*1000).as("update_database_time"))
      .orderBy(desc("update_database_time"))
      .head()
      .getTimestamp(0)

相关问题