hdp-datanodes正在崩溃

u5rb5r59  于 2021-05-29  发布在  Hadoop
关注(0)|答案(0)|浏览(306)

我们有4个节点的hadoop集群。2主节点2数据节点后,有时我们发现我们的数据节点出现故障。然后,我们去看看日志部分,它总是告诉我们不能分配内存。
环境

  1. HDP 2.3.6 VERSION
  2. HAWQ 2.0.0 VERSION
  3. linux os : centos 6.0

获取以下错误
数据节点正在崩溃,日志如下

  1. os::commit_memory(0x00007fec816ac000, 12288, 0) failed; error='Cannot allocate memory' (errno=12)

内存信息
vm\u过限比为2

  1. MemTotal: 30946088 kB
  2. MemFree: 11252496 kB
  3. Buffers: 496376 kB
  4. Cached: 11938144 kB
  5. SwapCached: 0 kB
  6. Active: 15023232 kB
  7. Inactive: 3116316 kB
  8. Active(anon): 5709860 kB
  9. Inactive(anon): 394092 kB
  10. Active(file): 9313372 kB
  11. Inactive(file): 2722224 kB
  12. Unevictable: 0 kB
  13. Mlocked: 0 kB
  14. SwapTotal: 15728636 kB
  15. SwapFree: 15728636 kB
  16. Dirty: 280 kB
  17. Writeback: 0 kB
  18. AnonPages: 5705052 kB
  19. Mapped: 461876 kB
  20. Shmem: 398936 kB
  21. Slab: 803936 kB
  22. SReclaimable: 692240 kB
  23. SUnreclaim: 111696 kB
  24. KernelStack: 33520 kB
  25. PageTables: 342840 kB
  26. NFS_Unstable: 0 kB
  27. Bounce: 0 kB
  28. WritebackTmp: 0 kB
  29. CommitLimit: 31201680 kB
  30. Committed_AS: 26896520 kB
  31. VmallocTotal: 34359738367 kB
  32. VmallocUsed: 73516 kB
  33. VmallocChunk: 34359538628 kB
  34. HardwareCorrupted: 0 kB
  35. AnonHugePages: 2887680 kB
  36. HugePages_Total: 0
  37. HugePages_Free: 0
  38. HugePages_Rsvd: 0
  39. HugePages_Surp: 0
  40. Hugepagesize: 2048 kB
  41. DirectMap4k: 6132 kB
  42. DirectMap2M: 2091008 kB
  43. DirectMap1G: 29360128 kB

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题