通过spark-excel处理excel文件

pb3s4cty  于 2021-05-26  发布在  Spark
关注(0)|答案(0)|浏览(418)

我需要处理这个excel文件。

我试过了

val df = spark.read
.format("com.crealytics.spark.excel")
.option("useHeader", "false") // Required
.option("treatEmptyValuesAsNulls", "false") // Optional, default: true
.option("inferSchema", "true") // Optional, default: false
.option("addColorColumns", "true") // Optional, default: false
.option("timestampFormat", "MM-dd-yyyy HH:mm:ss") // Optional, default: yyyy-mm-dd hh:mm:ss[.fffffffff]
.option("maxRowsInMemory", 20) // Optional, default None. If set, uses a streaming reader which can help with big files
.option("excerptSize", 10) // Optional, default: 10. If set and if schema inferred, number of rows to infer schema from
.load("Test.xlsx")

但我有个例外。如果有人处理过这样的文件,请告诉我。
当我执行df.show时,我得到以下异常

scala> df.show()

java.util.nosuchelementexception:找不到键:scala.collection.maplike.default(maplike)处的structfield(\u c0,stringtype,true)。scala:235)在scala.collection.maplike.default$(maplike。scala:234)在scala.collection.abstractmap.default(map。scala:63)在scala.collection.maplike.apply(maplike。scala:144)

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题