我是新的 flask ,我正在使用以下 flask cookiecutter开始与一个快速原型。该项目的主要思想是从hive集群收集数据,并使用flask将数据推送到最终用户。
尽管如此,我还是成功地使用 pyhive
但是我遇到了一个奇怪的问题 select limit
我试图查询超过50个项目。
在我的例子中,我构建了一个类似于flask扩展开发的hive类 pyhive
类似演示:
from pyhive import hive
from flask import current_app
# Find the stack on which we want to store the database connection.
# Starting with Flask 0.9, the _app_ctx_stack is the correct one,
# before that we need to use the _request_ctx_stack.
try:
from flask import _app_ctx_stack as stack
except ImportError:
from flask import _request_ctx_stack as stack
class Hive(object):
def __init__(self, app=None):
self.app = app
if app is not None:
self.init_app(app)
def init_app(self, app):
# Use the newstyle teardown_appcontext if it's available,
# otherwise fall back to the request context
if hasattr(app, 'teardown_appcontext'):
app.teardown_appcontext(self.teardown)
else:
app.teardown_request(self.teardown)
def connect(self):
return hive.connect(current_app.config['HIVE_DATABASE_URI'], database="orc")
def teardown(self, exception):
ctx = stack.top
if hasattr(ctx, 'hive_db'):
ctx.hive_db.close()
return None
@property
def connection(self):
ctx = stack.top
if ctx is not None:
if not hasattr(ctx, 'hive_db'):
ctx.hive_db = self.connect()
return ctx.hive_db
并创建了一个端点以从配置单元加载数据:
@blueprint.route('/hive/<limit>')
def connect_to_hive(limit):
cur = hive.connection.cursor()
query = "select * from part_raw where year=2018 LIMIT {0}".format(limit)
cur.execute(query)
res = cur.fetchall()
return jsonify(data=res)
在第一次运行时,如果我尝试加载限制为50个项目的东西,那么一切都可以正常工作,但是一旦我增加,它就会保持在没有加载的状态。但是,当我使用jupyter笔记本加载数据时,它工作正常,这就是为什么我怀疑我可能会从flask代码中漏掉一些东西。
1条答案
按热度按时间nafvub8i1#
问题是库版本问题,通过在我的要求中添加以下内容解决了此问题:
旧版本如下:
正如pyhive项目中的开发需求文件所述。