docker群集卷有光泽吗?

zf9nrax1  于 2021-05-29  发布在  Hadoop
关注(0)|答案(1)|浏览(313)

我有一个针对hdfs数据节点的docker swarm设置,如下所示(截断):

datanode:
    image: bde2020/hadoop-datanode:2.0.0-hadoop2.7.4-java8
    volumes:
      - datanode:/hadoop/dfs/data
    deploy:
      mode: global
      placement:
        constraints: [ node.role == worker ]
  volumes:
    datanode:

每个datanode容器都有一个关联的datanode卷,该卷当前存储在/var/lib/docker/volumes(每个节点的本地)中。我可以访问一个更大(更快)的lustre文件系统,并试图了解如何在lustre文件系统上存储卷。
一种可能是将/var/lib/docker/volumes符号链接到/lustre/noden(其中n是物理节点号),但namenode似乎无法处理堆栈重新启动,因为数据可能会(可能)移动到另一个节点。
docker驱动器是否支持swarm中lustre文件系统上的docker卷?如果没有,团队如何为hdfs这样的系统管理docker卷数据持久性?

2ekbmq32

2ekbmq321#

如果我没有误解你,恐怕不行,因为 driver: lustre 或者,docker配置不存在与docker配置相同的方式 nfs ,例如:

volumes:
   db-data:
      driver: local
      driver_opts:
        type: <here is where you could try to put lustre, but it doesn't exist>
        o: addr=$IPADDR,rw
        device: ":/hadoop/dfs/data"

因此,如果考虑以下模式,请尝试使用lustre graph driver

https://github.com/bacaldwell/lustre-graph-driver/blob/master/lustre-graph-driver.jpg
更多信息在光泽图驱动程序如何

相关问题