我试图在ApacheOozie中设置一个spark操作工作流,但在运行时出现以下错误 select * from db.table
在配置单元上下文中的spark代码中调用:
org.apache.spark.sql.AnalysisException: Table not found: `db`.`table`; line 1 pos 34
这个spark工作与spark submit一起工作,所以我似乎无法解决这个问题。我已经将hive-site.xml添加到前面问题中建议的各种位置,例如workspace lib目录和workspace目录,并将其添加到job.xml设置中,尽管我仍然遇到相同的问题。
我运行在部署模式集群和主Yarn。
我试过很多组合,不知道还能做什么。
我哪里出错了?
暂无答案!
目前还没有任何答案,快来回答吧!