从文档中我不确定在使用spark中的hivecontext创建配置单元表时,它是否使用spark引擎或标准配置单元mapreduce作业来执行任务?
val sc = new SparkContext()
val hc = new HiveContext(sc)
hc.sql("""
CREATE TABLE db.new_table
STORED AS PARQUET
AS SELECT
field1,
field2,
field3
FROM db.src1
JOIN db.src2
ON (x = y)
"""
)
2条答案
按热度按时间0wi1tuuw1#
spark sql支持使用
HiveContext
. 它使用Spark SQL execution engine
使用存储在配置单元中的数据。val spark=sparksession.builder().appname(“sparksessionexample”).config(“spark.sql.warehouse.dir”,warehouselocation)。
enableHiveSupport()
.getorcreate()roqulrg32#
现在这样做时,spark将使用spark api而不是mr。hivecontext不需要显式引用,即使在spark submit/program模式下也是如此。