kafka流中的java消息键

thtygnil  于 2021-06-07  发布在  Kafka
关注(0)|答案(1)|浏览(319)

我正在尝试使用long-as类型的消息键,但我得到了

Exception in thread "kafka_stream_app-f236aaca-3f90-469d-9d32-20ff694806ff-StreamThread-1" org.apache.kafka.streams.errors.StreamsException: Failed to deserialize key for record. topic=test, partition=0, offset=0
    at org.apache.kafka.streams.processor.internals.SourceNodeRecordDeserializer.deserialize(SourceNodeRecordDeserializer.java:38)
    at org.apache.kafka.streams.processor.internals.RecordQueue.addRawRecords(RecordQueue.java:84)
    at org.apache.kafka.streams.processor.internals.PartitionGroup.addRawRecords(PartitionGroup.java:117)
    at org.apache.kafka.streams.processor.internals.StreamTask.addRecords(StreamTask.java:474)
    at org.apache.kafka.streams.processor.internals.StreamThread.addRecordsToTasks(StreamThread.java:642)
    at org.apache.kafka.streams.processor.internals.StreamThread.runLoop(StreamThread.java:548)
    at org.apache.kafka.streams.processor.internals.StreamThread.run(StreamThread.java:519)
Caused by: org.apache.kafka.common.errors.SerializationException: Size of data received by LongDeserializer is not 8

我查了一下 data.length7 .
在我设置的streams配置中

streamsConfiguration.put(StreamsConfig.KEY_SERDE_CLASS_CONFIG, Serdes.Long().getClass().getName());

我用

KStream<Long, GenericRecord> stream = builder.stream(topic);

我试过通过一个简单的应用程序发送信息,也用 kafka-avro-console-producer :

/opt/confluent-3.3.0/bin/kafka-avro-console-producer \
--broker-list localhost:9092 \
--topic test \
--property key.separator=, \
--property parse.key=true \
--property key.schema='{"type":"long"}' \
--property value.schema='{"type":"string"}' \
--property schema.registry.url=http://localhost:8081

带消息

123,"293"

使用 kafka-avro-console-consumer 我可以消费的信息和看到(与 --property print.key=true 发送的密钥是否正确 123 )
你知道解码信息时会出什么问题吗?

vshtjzan

vshtjzan1#

因为你正在使用 kafka-avro-console-producer 密钥未序列化为普通密钥 Long 但作为一个avro类型。因此,您需要使用与写入路径上使用的模式相同的对应avro serde(即, '{"type":"long"}" ).
此外,您的返回类型将不会 Long 但是一个阿夫罗类型。

相关问题