我无法从pyspark.sql导入sparksession,但可以导入行我的spark-1.6.0-bin-hadoop2.6安装在docker容器中,系统是centos我怎样才能解决这个问题?这个问题困扰我很久了
disho6za1#
您不能使用它,因为它不存在,您使用的spark版本是1.6,sparksession是在2.0.0中引入的。您可以在这里看到:https://databricks.com/blog/2016/08/15/how-to-use-sparksession-in-apache-spark-2-0.html您可以从此处下载spark 2.0.0:http://spark.apache.org/downloads.html
1条答案
按热度按时间disho6za1#
您不能使用它,因为它不存在,您使用的spark版本是1.6,sparksession是在2.0.0中引入的。
您可以在这里看到:https://databricks.com/blog/2016/08/15/how-to-use-sparksession-in-apache-spark-2-0.html
您可以从此处下载spark 2.0.0:http://spark.apache.org/downloads.html