ganglia生成了太多的rrd文件&无法自动删除

mrfwxfqh  于 2021-05-29  发布在  Hadoop
关注(0)|答案(1)|浏览(471)

我使用ganglia 3.7.2监视hadoop(2.6.0-cdh5.4.0)集群(7台服务器),并在hadoop&hbase上启用了metrics2;我用yum在一台服务器上安装了gmetad,在其他服务器上安装了gmond;刚开始的时候,监视器运行得很好,我在ganglia的网页上可以看到正常的监视器数据,但是问题是:几个小时后,rrd文件太多了,所以我不得不为path/var/lib/ganglia/rrds做符号链接,过了几天,rrd文件几乎占用了1tb的磁盘空间,网页无法显示监控数据,有人知道怎么解决吗?
gmond配置(使用单通道):

globals {
daemonize = yes
setuid = yes
user = ganglia
debug_level = 0
max_udp_msg_len = 1472
mute = no
deaf = no
allow_extra_data = yes
host_dmax = 86400 /*secs. Expires (removes from web interface) hosts in 1 day */
host_tmax = 20 /*secs */
cleanup_threshold = 300 /*secs */
gexec = no
send_metadata_interval = 60 /*secs */
}
ar7v8xwq

ar7v8xwq1#

解决了这个问题,我做了以下事情:
将默认rrd规则更改为:
“rras”rra:average:0.5:1:256" "rra:average:0.5:24:512" "rra:average:0.5:168:512" "rra:average:0.5:672:512" "rra:average:0.5:5760:1024"
关闭hadoop metric2的datanode.sink和nodemanager.sink;
参考文献:http://www.perzl.org/ganglia/bestpractices.html##最佳实践\u神经节\u取样

相关问题