在同一台机器上安装spark和hadoop

x6yk4ghg  于 2021-05-29  发布在  Hadoop
关注(0)|答案(1)|浏览(385)

我正在尝试在同一台机器上安装spark apache和hadoop。spark将用于处理数据,hadoop的hdfs将用于存储数据。我首先开始安装Spark和它的工作完美。但是,当我开始安装hadoop并设置java\u home环境变量hdfs时,spark崩溃并显示: Files was unexpected at this time. 当我启动它的时候。当我删除javau home时,spark再次工作,但hdfs不是这样。在这种情况下我该怎么办?

k97glaaz

k97glaaz1#

你在用什么操作系统?你能给我看看你的 java 回家的路吗?您的javau主路径不应包含空格。

相关问题