我们有一个用例,比如在我们的spring boot应用程序中,我们有一个文件上传,我们需要上传csv文件,它可能有超过一百万条记录。目前,我们可以加载30万条记录,但无法加载完整的数据。我们在这一部分使用apachekafka,我们将上传的csv文件数据作为消息推送到kafka主题,从kafka我们的spring boot kafka消费者将侦听主题中可用的任何数据。
如果有的话,你能给我们提供更好的建议吗。谢谢
我们有一个用例,比如在我们的spring boot应用程序中,我们有一个文件上传,我们需要上传csv文件,它可能有超过一百万条记录。目前,我们可以加载30万条记录,但无法加载完整的数据。我们在这一部分使用apachekafka,我们将上传的csv文件数据作为消息推送到kafka主题,从kafka我们的spring boot kafka消费者将侦听主题中可用的任何数据。
如果有的话,你能给我们提供更好的建议吗。谢谢
暂无答案!
目前还没有任何答案,快来回答吧!