我正在尝试卸载oracle表并使用spark scala创建sparkDataframe。。。
但卸下它需要更多的时间。
我的oracle表是在数据列上分区的(它是范围分区的)。
我已经阅读了下面的选项来提高卸载性能。。。。
.option("numPartitions",XXX)
.option("fetchsize",XXX)
.option("partitionColumn",XXX)
.option("lowerBound",XXX)
.option("upperBound",XXX)
但是lowerbound和upperbound选项需要整数值,而我的表是按日期列分区的。。。在我的例子中不知道如何实现卸载并行性。
请建议的代码改进,我可以使卸载完成更快。
谢谢,纳文
暂无答案!
目前还没有任何答案,快来回答吧!