将数据写入hive事务表

vuktfyat  于 2021-05-27  发布在  Hadoop
关注(0)|答案(1)|浏览(389)

我正在尝试使用spark将数据写入配置单元事务表。下面是我用来插入数据的示例代码

dataSet.write().format("orc")
  .partitionBy("column1")
  .bucketBy(2,"column2")
  .insertInto("table");

但不幸的是,在运行应用程序时出现以下错误。
org.apache.spark.sql.analysisexception:'insertinto'现在不支持bucketby;
我使用的spark和hive版本是2.4和3.1。谷歌搜索了很多,但没有找到任何解决方案。我是一个新来的Hive任何帮助将不胜感激。

uelo1irk

uelo1irk1#

https://issues.apache.org/jira/browse/spark-15348 明确指出,Spark不允许Hive或酸处理,目前。很遗憾,但不可能。
您需要使用tez或mr作为配置单元的底层引擎来编写配置单元脚本。

相关问题