我有两个服务,应该通过 Kafka
. 让我们调用第一个服务writeservice和第二个服务queryservice。
在writeservice方面,我有以下生产者配置。
@Configuration
public class KafkaProducerConfiguration {
@Value("${spring.kafka.bootstrap-servers}")
private String bootstrapServers;
@Bean
public Map<String, Object> producerConfigs() {
Map<String, Object> props = new HashMap<>();
// list of host:port pairs used for establishing the initial connections to the Kakfa cluster
props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG,
bootstrapServers);
props.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG,
StringSerializer.class);
props.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG,
JsonSerializer.class);
return props;
}
@Bean
public ProducerFactory<String, Object> producerFactory() {
return new DefaultKafkaProducerFactory<>(producerConfigs());
}
@Bean
public KafkaTemplate<String, Object> kafkaTemplate() {
return new KafkaTemplate<>(producerFactory());
}
}
我正试图发送一个类的对象 com.example.project.web.routes.dto.RouteDto
在queryservice端,使用者配置定义如下。
@Configuration
@EnableKafka
public class KafkaConsumerConfiguration {
@Value("${spring.kafka.bootstrap-servers}")
private String bootstrapServers;
@Value("${spring.kafka.groupid}")
private String serviceGroupId;
@Value("${spring.kafka.consumer.trusted-packages}")
private String trustedPackage;
@Bean
public Map<String, Object> consumerConfigs() {
Map<String, Object> props = new HashMap<>();
props.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG,
bootstrapServers);
props.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG,
StringDeserializer.class);
props.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG,
JsonDeserializer.class);
props.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG, true);
props.put(ConsumerConfig.GROUP_ID_CONFIG, serviceGroupId);
props.put(JsonDeserializer.TRUSTED_PACKAGES, trustedPackage);
props.put(ConsumerConfig.AUTO_OFFSET_RESET_CONFIG, "earliest");
return props;
}
@Bean
public ConsumerFactory<String, Object> consumerFactory() {
return new DefaultKafkaConsumerFactory<>(consumerConfigs());
}
@Bean
public ConcurrentKafkaListenerContainerFactory<String, Object> kafkaListenerContainerFactory() {
ConcurrentKafkaListenerContainerFactory<String, Object> factory =
new ConcurrentKafkaListenerContainerFactory<>();
factory.setConsumerFactory(consumerFactory());
return factory;
}
}
侦听器具有以下定义。负载类具有完全限定名- com.example.project.clientqueryview.module.routes.messaging.kafka.RouteDto
```
@KafkaListener(topics = "${spring.kafka.topics.routes}",
containerFactory = "kafkaListenerContainerFactory")
public void listenForRoute(ConsumerRecord<String, RouteDto> cr,
@Payload RouteDto payload) {
logger.info("Logger 1 [JSON] received key {}: Type [{}] | Payload: {} | Record: {}", cr.key(),
typeIdHeader(cr.headers()), payload, cr.toString());
}
private static String typeIdHeader(Headers headers) {
return StreamSupport.stream(headers.spliterator(), false)
.filter(header -> header.key().equals("__TypeId__"))
.findFirst().map(header -> new String(header.value())).orElse("N/A");
}
当一个消息被发送时,我得到以下错误
原因:org.springframework.messaging.converter.messageconversionexception:未能解析类名。找不到类[com.example.project.web.routes.dto.routedto];嵌套的异常是java.lang.classnotfoundexception:com.example.project.web.routes.dto.routedto
这个错误很明显。然而,我不明白为什么它默认有这种行为。我不希望在不同的服务中有相同的套餐,这完全没有意义。
我还没有找到一种方法来禁用它,并使用提供给侦听器的类,用 `@Payload` 如何解决这个问题,而不必手动配置Map器?
1条答案
按热度按时间4c8rllxm1#
如果您使用的是spring-kafka-2.2.x,那么可以通过重载
JsonDeserializer
文件从版本2.2开始,您可以显式配置反序列化程序,通过使用一个具有布尔useheadersifpresent的重载构造函数(默认情况下为true),使用提供的目标类型并忽略标头中的类型信息。下面的示例演示如何执行此操作:
如果使用较低版本,则使用
MessageConverter
(您可能会在spring-kafka-2.1.x及更高版本中看到此问题)spring for apache kafka通过messagingmessageconverter实现及其stringjsonmessageconverter和bytesjsonmessageconverter定制提供了messageconverter抽象。可以直接将messageconverter注入到kafkatemplate示例中,也可以使用@kafkalistener.containerfactory()属性的abstractkafkalistenerContainerFactorybean定义。下面的示例演示如何执行此操作:
注意:只有在方法级别声明@kafkalistener注解时,才能实现这种类型推断。对于类级别的@kafkalistener,有效负载类型用于选择要调用的@kafkahandler方法,因此在选择该方法之前,必须已经对其进行了转换。