无法访问来自ec2上合流kafka的消息

41zrol4v  于 2021-06-06  发布在  Kafka
关注(0)|答案(1)|浏览(387)

在aws ec2上安装了confluent kafka 5.0.0,其公共ip为54.xx.xx.xx,在ec2机器上用0.0.0.0打开端口9092
在/etc/kafka/server.properties中

advertised.listeners=PLAINTEXT://54.XX.XX.XX:9092  
listeners=PLAINTEXT://0.0.0.0:9092

/etc/kafka/producer.properties 我有 bootstrap.servers=0.0.0.0:9092 在中的本地计算机上 /etc/kafka/consumer.properties 我有 bootstrap.servers=54.XX.XX.XX:9092 在ec2,Kafka开始 'confluent start' 并创建了“mytopic”
从本地计算机运行的producer.py代码如下(相关部分):

from confluent_kafka import Producer
broker = '54.XX.XX.XX'
topic = 'mytopic'
    p = Producer({'bootstrap.servers': broker})

    for data in dictList:
        p.poll(0)
        sendme = json.dumps(data)
        p.produce(topic, sendme.encode('utf-8'), callback=delivery_report)

    p.flush()

这似乎将消息写入ec2中kafka流中的“mytopic”。我可以在ec2上的“kafkacat-b54.xx.xx.xx-tmytopic”中看到这些消息。
但作为一个简单的消息打印消费者,我无法从本地计算机访问这些消息,代码如下:

from confluent_kafka import Consumer, KafkaError, KafkaException
import json
import sys

broker = '54.XX.XX.XX'
topic = 'mytopic'
group = 'mygroup'
     c = Consumer({
         'bootstrap.servers': broker,
         'group.id': group,
         'session.timeout.ms': 6000,
         'default.topic.config': {
             'auto.offset.reset': 'smallest'
         }
     })
     basic_consume_loop(c,[topic])

def basic_consume_loop(consumer, topics):
    try:
        consumer.subscribe(topics)

        while running:
            msg = consumer.poll(timeout=1.0)
            if msg is None: continue

            if msg.error():
                if msg.error().code() == KafkaError._PARTITION_EOF:
                    # End of partition event
                    sys.stderr.write('{} [{}] reached end at offset {}\n'.format(msg.topic(), msg.partition(), msg.offset()))
                    data_process()
                elif msg.error():
                    raise KafkaException(msg.error())
            else:
                msg_process(msg)
    finally:
        # Close down consumer to commit final offsets.
        print("Shutting down the consumer")
        consumer.close()

它只是挂了,我错过了任何设置吗?

7vhp5slm

7vhp5slm1#

以下步骤似乎有效。
在本地和ec2计算机上,在/etc/kakfa/server.properties集合中

listeners=PLAINTEXT://0.0.0.0:9092
advertised.listeners=PLAINTEXT://54.XX.XX.XX:9092

在本地计算机上的/etc/kakfa/producer.properties集合中

bootstrap.servers=0.0.0.0:9092

在ec2机器上,在/etc/kakfa/producer.properties集合中

bootstrap.servers=localhost:9092

在本地和ec2计算机上,在/etc/kakfa/consumer.properties集合中

bootstrap.servers=0.0.0.0:9092
group.id=mygroup

使用“合流启动”在远程ec2计算机上启动所有必需的守护程序。在本地计算机上,合流不使其运行。
在本地计算机上(对于ip隐藏,可选):

export KAFKA_PRODUCER_IP=54.XX.XX.XX

这样,本地机器的生产者就可以通过以下方式将消息放到远程ec2 kafka上:

broker = os.environ['KAFKA_PRODUCER_IP'] + ':9092'
topic = 'mytopic'
p = Producer({'bootstrap.servers': broker})

从本地计算机,可以通过以下方式从远程ec2 kafka获取消息:

broker = os.environ['KAFKA_PRODUCER_IP'] + ':9092'
topic = 'mytopic'
group = 'mygroup'
     c = Consumer({
         'bootstrap.servers': broker,
         'group.id': group,
         'session.timeout.ms': 6000,
         'default.topic.config': {
             'auto.offset.reset': 'smallest'
         }
     })

这些步骤似乎奏效了。可能会有一些冗余,如果是的话,请指出。

相关问题