spark不显示驻留在配置单元表中的数据

thigvfpy  于 2021-06-26  发布在  Hive
关注(0)|答案(1)|浏览(588)

假设我使用spark创建下表:

df = spark.createDataFrame([(1, 4), (2, 5), (3, 6)], ["A", "B"])
df.write.mode("overwrite").saveAsTable("hivedb.mwe")

现在,如果我尝试计算这个表中的数据:

> spark.sql("SELECT count(*) FROM hivedb.mwe").show()

+--------+
|count(1)|
+--------+
|       0|
+--------+

但是,如果我使用hive(或impala,它给出相同的结果)计算数据

jdbc:hive2:...> SELECT count(*) FROM hivedb.mwe

+------+--+
| _c0  |
+------+--+
| 3    |
+------+--+

这里可能发生了什么,spark似乎看不到mwe中的数据?
作为一个插件,spark非常了解表:

> spark.sql("DESCRIBE hivedb.mwe").show()

+--------+---------+-------+
|col_name|data_type|comment|
+--------+---------+-------+
|       A|   bigint|   null|
|       B|   bigint|   null|
+--------+---------+-------+

为了完整起见:
spark版本:v2.2.0.cloudera1
hivedb是使用非标准位置参数创建的配置单元数据库
集群完全煤化
hdfs包含:

[myuser@cluster~]$ hdfs dfs -ls /path/to/hivedb/mwe
Found 3 items
-rw-r--r--   3 myuser somegroup          0 2018-02-09 13:29 /path/to/hivedb/mwe/_SUCCESS
-rw-r--r--   3 myuser somegroup          526 2018-02-09 13:29 /path/to/hivedb/mwe/part-00000-f1e79c0d-fca5-4a46-aa70-3651baa96a90-c000.snappy.parquet
-rw-r--r--   3 myuser somegroup          545 2018-02-09 13:29 /path/to/hivedb/mwe/part-00001-f1e79c0d-fca5-4a46-aa70-3651baa96a90-c000.snappy.parquet
velaa5lx

velaa5lx1#

这似乎是Cloudera2.2中的一个已知问题。
https://www.cloudera.com/documentation/spark2/latest/topics/spark2_known_issues.html#spark-21994
最好的替代解决方案是提供给你看上面的链接,并执行周围的工作,看看解决方案是可能的。
这些都是解决方案

val options = Map("path" -> "/path/to/hdfs/directory/containing/table")
df.write.options(options).saveAsTable("db_name.table_name")

spark.sql("alter table db_name.table_name set SERDEPROPERTIES ('path'='hdfs://host.example.com:8020/warehouse/path/db_name.db/table_name')")
spark.catalog.refreshTable("db_name.table_name")

相关问题