我想用spark版本1.6.x中的pyspark将rdd(k=table\u name,v=content)加载到分区的hive表(年、月、日)中
在尝试使用此sql查询的逻辑时:
ALTER TABLE db_schema.%FILENAME_WITHOUT_EXTENSION% DROP IF EXISTS PARTITION (year=%YEAR%, month=%MONTH%, day=%DAY%);LOAD DATA INTO TABLE db_schema.%FILENAME_WITHOUT_EXTENSION% PARTITION (year=%YEAR%, month=%MONTH%, day=%DAY%);
有人能给点建议吗?
1条答案
按热度按时间sirbozc51#
使用enablehivesupport()和df.write.saveastable()