我们想将我们的kafka服务器与我们的远程datadog服务器集成。由于一些策略,我们决定使用隧道而不是数据狗代理。
我们为每个示例(3个zk、3个broker和12个kafka connect worker)设置了jmx端口,格式相同的服务后台如下:
Requires=network.target remote-fs.target
After=network.target remote-fs.target
[Service]
Type=simple
User=<USER>
Environment=KAFKA_JMX_OPTS="
-Djava.rmi.server.hostname=<HOSTNAME>
-Dcom.sun.management.jmxremote.local.only=false
-Dcom.sun.management.jmxremote.rmi.port=<PORT>
-Dcom.sun.management.jmxremote.port=<PORT>
-Dcom.sun.management.jmxremote=true
-Dcom.sun.management.jmxremote.authenticate=false
-Dcom.sun.management.jmxremote.ssl=false"
ExecStart=/bin/bash -c 'env JMX_PORT=<PORT> <KAFKA_HOME>/bin/kafka-server-start.sh <KAFKA_HOME>/config/kafka_group/<SERVER_NUMBER>.properties'
ExecStop=/bin/bash -c '<KAFKA_HOME>/bin/kafka-server-stop.sh'
Restart=on-abnormal
[Install]
WantedBy=multi-user.target
每个示例都有自己的端口。当我们试着 curl 的时候 curl localhost:19999\metrics
为了测试jmx,它返回空值,这表示我们缺少收集jmx报告的内容
然而,从datadog教程到kafka与dd的集成,他们使用jmxfetch,而安装需要ddagent。
我们想知道是否有其他替代方案可以将kafka服务器集成到datadog中而不使用代理,并依赖于隧道。
暂无答案!
目前还没有任何答案,快来回答吧!