配置单元和spark的maven构建错误

iovurdzv  于 2021-06-26  发布在  Hive
关注(0)|答案(0)|浏览(221)

我试图使用Hive的Spark,rev组合是Hive2.1.1和Spark2.0.0。在没有Hive的建筑Spark,阻止了相同的建筑错误如下。即使是最新的spark 2.1.0,仍然是相同的版本。

Caused by: org.apache.maven.plugin.PluginExecutionException:
Execution default-cli of goal net.alchim31.maven:scala-maven-plugin:3.2.2:compile failed

还有另一个相同问题(未能执行goal net.alchim31)。maven:scala-maven-plugin:3.2.2),我检查并完成了本文中的所有内容,包括在pom.xml中注解掉锌。还是没有运气绕过这个。
任何人都可以帮助这个奇怪的网络。maven:scala-maven-plugin issue?

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题