我尝试删除一个表并再次创建同一个表。但我面对下面提到的错误。
spark.sql("drop table if exists db.tablename")
spark.sql("create table db.tablename using hive options(few options like input format output format) location 's3://xxxx' tblproperties('external'='true') as select * from table db.sourcetable")
例外情况是:
File "/usr/lib/spark/python/lib/pyspark.zip/pyspark/sql/session.py",
line 767 ,in sql\ n return
dataframe(self._jsparksession.sql(sqlQuery),self._wrapped )\n
File "/usr/lib/spark/python/lib/py4j-0.10.7-src.zip/py4j/java_gateway.py",
line 1257,in _call_\n answer ,self.gateway_client ,self.target_id ,self.name)\n
File "/usr/lib/spark/python/lib/pyspark.zip/pyspark/sql/utils py",
line 69 in deco\n raise AnalysisExceptions (s.split(\':\',1)[1],stackTrace)\n
AnalysisException :u\'org.apache.hadoop.hive.ql.metadata.HiveException
:Unable to alter table.Table tablename not found . (Service: AWSGlue; Status Code: 400; Error Code: EntityNotFoundException;
注意:但是在再次尝试相同的方法之后,它成功了。我不知道为什么它会断断续续地来。请帮帮我。
不知道为什么创建不存在的表时出现了giving table not found异常。
暂无答案!
目前还没有任何答案,快来回答吧!