Kafka流媒体中的消息加密

u3r8eeie  于 2021-06-06  发布在  Kafka
关注(0)|答案(1)|浏览(937)

我最近尝试用kafka流媒体处理一些敏感的数据。我希望实现的目标是,虽然敏感数据是加密的,但微服务体系结构的功能不会受到损害,即,不耦合的服务和流数据处理。
我的问题是,在kafka流媒体中,我是否可能用一个密钥解密传入的消息,然后用另一个密钥再次加密?我有一个计划,但由于我不熟悉Kafka流,我不能证明Kafka流能够处理这个功能,使用流dsl。有人能帮我解决这个问题吗,最好告诉我streams dsl中的哪个函数可以处理这个问题?
更新:基本上,我要问的是:我正在尝试对流媒体管道中的一条消息使用两次公钥加密。一次是入站主题,一次是出站主题。只是不确定dsl是否能够解密和加密,以及密钥应该存储在哪里。
谢谢!

aurhwmvo

aurhwmvo1#

如果您只是想阻止其他人检查您的数据,kafka提供了ssl连接用于客户端和代理之间的加密,尽管静态数据仍然是未加密的。您可以将sasl添加到add authorization以限制可以访问集群的用户。限制ssh访问代理文件也会有所帮助
您需要的是一个定制的序列化程序和反序列化程序组合,所有kafkaapi都使用这个组合。
当使用kafka streams api时,可以将它们 Package 在serde类中,并在启动之前将其提供给streams属性,或者在两个dsl方法之间通过 Produced.with 或者 Consumed.with

相关问题