将过滤后的数据写入文件时遇到问题。在本地文件系统中创建了大约27个文件,但没有输出。
使用的代码如下:
我把文件读作Dataframe
val in_df=spark.read.csv(“文件:///home/desktop/project/inputdata.csv”)。选择expr(“\u c0作为id”,“\u c1作为name”,“\u c2作为dept”)
然后将此Dataframe注册为临时表
在注册表中可清空(“employeedetails”)
现在的要求是计算每个部门的员工人数并将其存储到一个文件中。
val employeedeptcount=spark.sql(“按部门从employeedetails组中选择部门,计数(*))
//下面的代码将作为n个parquet文件写入配置单元默认仓库。
employeedeptcount.write.saveastable(“aggregatedcount”)
//下面的代码正在写入lfs,但是没有输出,但是创建了n个文件
employeedeptcount.write.mode(“append”).csv(“文件:///home/desktop/project”)
1条答案
按热度按时间cgvd09ve1#