有没有一种方法可以连接Spark-Sql和sqlalchemy我有使用sqlalchemy的遗留代码我如何让它使用spark-sql,我可以让sqlalchemy作为spark-sql的转换层吗?
snz8szmq1#
是的,看看这个项目https://github.com/dropbox/PyHive您需要做一些调整,幸运的是SQLAlchemy就是为此而构建的
guz6ccqo2#
虽然PyHive是一个受欢迎的选择,但考虑探索SparkORM。这个库在PyPi和GitHub上可用,简化了Spark-SQL中的模式维护和表创建,提供了轻松的可扩展性。值得一试的是,它可以与现有的基于SQLAlemony的代码进行直接集成。
SparkORM
qv7cva1a3#
简短回答:不!这就像我们可以使用PostgreSQL和Spark-SQL一样。Spark-SQL有自己的SQL方言,并遵循更多的Hive风格。您应该转换您的sqlalchemy代码以符合Spark-SQL。
3条答案
按热度按时间snz8szmq1#
是的,看看这个项目https://github.com/dropbox/PyHive
您需要做一些调整,幸运的是SQLAlchemy就是为此而构建的
guz6ccqo2#
虽然PyHive是一个受欢迎的选择,但考虑探索
SparkORM
。这个库在PyPi和GitHub上可用,简化了Spark-SQL中的模式维护和表创建,提供了轻松的可扩展性。值得一试的是,它可以与现有的基于SQLAlemony的代码进行直接集成。qv7cva1a3#
简短回答:不!这就像我们可以使用PostgreSQL和Spark-SQL一样。Spark-SQL有自己的SQL方言,并遵循更多的Hive风格。您应该转换您的sqlalchemy代码以符合Spark-SQL。