我正在尝试在同一台机器上安装spark apache和hadoop。spark将用于处理数据,hadoop的hdfs将用于存储数据。我首先开始安装Spark和它的工作完美。但是,当我开始安装hadoop并设置java\u home环境变量hdfs时,spark崩溃并显示: Files was unexpected at this time. 当我启动它的时候。当我删除javau home时,spark再次工作,但hdfs不是这样。在这种情况下我该怎么办?
Files was unexpected at this time.
k97glaaz1#
你在用什么操作系统?你能给我看看你的 java 回家的路吗?您的javau主路径不应包含空格。
1条答案
按热度按时间k97glaaz1#
你在用什么操作系统?你能给我看看你的 java 回家的路吗?您的javau主路径不应包含空格。