我希望执行大量的配置单元查询并将结果存储在Dataframe中。
我有一个非常大的数据集,结构如下:
+-------------------+-------------------+---------+--------+--------+
| visid_high| visid_low|visit_num|genderid|count(1)|
+-------------------+-------------------+---------+--------+--------+
|3666627339384069624| 693073552020244687| 24| 2| 14|
|1104606287317036885|3578924774645377283| 2| 2| 8|
|3102893676414472155|4502736478394082631| 1| 2| 11|
| 811298620687176957|4311066360872821354| 17| 2| 6|
|5221837665223655432| 474971729978862555| 38| 2| 4|
+-------------------+-------------------+---------+--------+--------+
我想创建一个派生的dataframe,它使用每一行作为辅助查询的输入:
result_set = []
for session in sessions.collect()[:100]:
query = "SELECT prop8,count(1) FROM hit_data WHERE dt = {0} AND visid_high = {1} AND visid_low = {2} AND visit_num = {3} group by prop8".format(date,session['visid_high'],session['visid_low'],session['visit_num'])
result = hc.sql(query).collect()
result_set.append(result)
这在一百行中可以正常工作,但会导致livy在负载较高时超时。
我试过使用map或foreach:
def f(session):
query = "SELECT prop8,count(1) FROM hit_data WHERE dt = {0} AND visid_high = {1} AND visid_low = {2} AND visit_num = {3} group by prop8".format(date,session.visid_high,session.visid_low,session.visit_num)
return hc.sql(query)
test = sampleRdd.map(f)
造成 PicklingError: Could not serialize object: TypeError: 'JavaPackage' object is not callable
. 我从这个答案和这个答案中了解到spark上下文对象是不可序列化的。
我没有尝试先生成所有查询,然后运行批处理,因为我从这个问题了解到批处理查询不受支持。
我该怎么做?
1条答案
按热度按时间o2rvlv0m1#
我想要的是:
通过编写适当的联接一次性查询所有必需的数据
添加自定义列,基于使用
pyspark.sql.functions.when()
以及df.withColumn()
,那么使用
df.groupBy()
以及pyspark.sql.functions.sum()
我想我还没有完全意识到spark处理Dataframe很懒。支持的工作方式是定义大型Dataframe,然后进行适当的转换。spark将尝试在最后一秒一次性执行数据检索和转换,并将其分发。我试图预先限制范围,这导致了不受支持的功能。