我正在尝试读取一个文本文件并将其转换为Dataframe。
val inputDf: DataFrame = spark.read.text(filePath.get.concat("/").concat(fileName.get))
.map((row) => row.toString().split(","))
.map(attributes => {
Row(attributes(0), attributes(1), attributes(2), attributes(3), attributes(4))
}).as[Row]
当我输入df.printschema时,我得到的是一个列;
root
|-- value: binary (nullable = true)
如何将此文本文件转换为多列架构dataframe/dataset
1条答案
按热度按时间muk1a3rh1#
解决了的;