我有以下系统:
windows主机
带docker的linux访客(在虚拟机中)
我已经在docker(ubuntu,virtualbox)中安装了hdfs。我使用了docker hub的bde2020 hadoop映像。这是我的 Docker :
namenode:
image: bde2020/hadoop-namenode:2.0.0-hadoop3.2.1-java8
container_name: namenode
restart: always
ports:
- 9870:9870
- 9000:9000
volumes:
- hadoop_namenode:/hadoop/dfs/name
environment:
- CLUSTER_NAME=test
env_file:
- ./hadoop.env
networks:
control_net:
ipv4_address: 10.0.1.20
datanode:
image: bde2020/hadoop-datanode:2.0.0-hadoop3.2.1-java8
container_name: datanode
restart: always
ports:
- 9864:9864
volumes:
- hadoop_datanode:/hadoop/dfs/data
environment:
SERVICE_PRECONDITION: "namenode:9870"
env_file:
- ./hadoop.env
networks:
control_net:
ipv4_address: 10.0.1.21
resourcemanager:
image: bde2020/hadoop-resourcemanager:2.0.0-hadoop3.2.1-java8
container_name: resourcemanager
restart: always
environment:
SERVICE_PRECONDITION: "namenode:9000 namenode:9870 datanode:9864"
env_file:
- ./hadoop.env
networks:
control_net:
ipv4_address: 10.0.1.22
nodemanager1:
image: bde2020/hadoop-nodemanager:2.0.0-hadoop3.2.1-java8
container_name: nodemanager
restart: always
environment:
SERVICE_PRECONDITION: "namenode:9000 namenode:9870 datanode:9864 resourcemanager:8088"
env_file:
- ./hadoop.env
networks:
control_net:
ipv4_address: 10.0.1.23
historyserver:
image: bde2020/hadoop-historyserver:2.0.0-hadoop3.2.1-java8
container_name: historyserver
restart: always
environment:
SERVICE_PRECONDITION: "namenode:9000 namenode:9870 datanode:9864 resourcemanager:8088"
volumes:
- hadoop_historyserver:/hadoop/yarn/timeline
env_file:
- ./hadoop.env
networks:
control_net:
ipv4_address: 10.0.1.24
volumes:
hadoop_namenode:
hadoop_datanode:
hadoop_historyserver:
networks:
processing_net:
driver: bridge
ipam:
driver: default
config:
- subnet: 10.0.0.0/24
gateway: 10.0.0.1
我的hdfs-site.xml是:
<configuration>
<property><name>dfs.namenode.datanode.registration.ip-hostname-check</name><value>false</value></property>
<property><name>dfs.webhdfs.enabled</name><value>true</value></property>
<property><name>dfs.permissions.enabled</name><value>false</value></property>
<property><name>dfs.namenode.name.dir</name><value>file:///hadoop/dfs/name</value></property>
<property><name>dfs.namenode.rpc-bind-host</name><value>0.0.0.0</value></property>
<property><name>dfs.namenode.servicerpc-bind-host</name><value>0.0.0.0</value></property>
<property><name>dfs.namenode.http-bind-host</name><value>0.0.0.0</value></property>
<property><name>dfs.namenode.https-bind-host</name><value>0.0.0.0</value></property>
<property><name>dfs.client.use.datanode.hostname</name><value>true</value></property>
<property><name>dfs.datanode.use.datanode.hostname</name><value>true</value></property>
</configuration>
如果我在navigator中从linux(在virtualbox中)写入:
http://10.0.1.20:9870
然后我可以访问hadoopwebui。
如果我从windows(主机系统,虚拟机外部)写入导航器:
http://192.168.56.1:9870然后我也可以访问(我已将此ipMap为能够从虚拟机箱外部连接)。
但是当我在webui中导航并且我想下载一个文件时,问题就出现了。然后导航器说它无法连接到服务器dcfb0bf3b42c,并在地址选项卡中显示如下行:
http://dcfb0bf3b42c:9864/webhdfs/v1/tmp/datalakes/myJsonTest1/part-00000-0009b521-b474-49e7-be20-40f5e8b3a7b4-c000.json?op=OPEN&namenoderpcaddress=namenode:9000&offset=0
如果我将此部分“dcfb0bf3b42c”更改为ip:10.0.1.21(来自linux)或192.168.56.1(来自windows),它将正常工作并不加载文件。
我需要将此过程自动化,以避免每次都需要手动编写ip,因为我需要使用程序访问hdfs数据(power bi),并且当它尝试访问数据时由于上述问题而失败。
我是hadoop新手。我可以通过编辑任何配置文件来解决这个问题吗?
1条答案
按热度按时间x33g5p2x1#
最后,我找到了解决这个问题的办法。
步骤如下:
1-在docker compose中使用de hostname标记,用于所有服务,如@smart\u coder在注解中建议的:
2-编辑(在linux中)/etc/hosts文件并添加路由到我的服务的ip(在本例中,我需要将“datanode”Map到其ip),因此我将此行添加到/etc/hosts文件:
(这是一个真正的ipv4 ip,如果我添加10.0.1.21,它是在docker compose中创建的docker ip,也可以在linux中工作,但我不确定它是否可以从windows访问)。通过这第二步,我们可以将“datanode”一词解析为ip192.168.56.1,这将(仅)在linux客户机中起作用。
但是请记住,在我的第一篇评论中,我已经将我的windows ip(192.168.56.1)Map到docker(linux)ip(10.0.1.21),所以如果您只使用linux,您可以在docker compose文件中编写创建的ip,并且它可以正常工作。
3-通过执行以下步骤(在windows中)编辑/etc/hosts文件:
按windows键
写记事本
右键单击->以管理员身份运行
从记事本中,打开文件:c:\windows\system32\drivers\etc\hosts(c是我的硬盘,因此如果您的硬盘有其他名称,则地址可能不同)。
我补充说:
192.168.56.1 datanode
节约第三步允许将单词“datanode”解析为windows主机的ip192.168.56.1。完成这些步骤后,我可以从我的linux客户机(virtualbox内部)和windows主机下载访问的文件。