我是pyspark的初学者,尝试在jupyter笔记本中执行几行代码。我遵循了可用的说明(相当老-https://changhsinlee.com/install-pyspark-windows-jupyter/)在internet上配置pyspark后安装python-3.8.5、java(jdk-16)、spark-3.1.1-bin-hadoop2.7。
下面是在安装后成功执行并在“df.show()”后引发异常的行。我已经添加了所有必需的环境变量。请帮我解决这个问题。
pip安装pyspark
pip安装findspark
导入findspark
findspark.init()
导入Pypark
从pyspark.sql导入sparksession
spark=sparksession.builder.getorcreate()
df=spark.sql(''hello'')
df.show()异常
在评论部分添加了错误。
注意:我是python的初学者。不具备java知识
1条答案
按热度按时间zlwx9yxi1#
必须将java版本更改为Java11。现在可以了。