我在通过eclipse执行简单的spark作业时遇到了一个错误。有人能帮忙吗?这是我的密码:
val sc=SparkSession.builder()
.master("yarn")
.appName("hive Test")
.config("spark.hadoop.fs.defaultFS","hdfs://localhost:9000")
.config("spark.yarn.jars","hdfs://localhost:9000/sparkjars/*.jar")
.getOrCreate()
println("Testing")
erorr公司:
“/tmp/hadoop aditya”未被识别为内部或外部命令
暂无答案!
目前还没有任何答案,快来回答吧!