全部。最近我需要使用sparksql向mysql中插入大约100000000个数据,但是速度很慢,大约需要1个小时。有人能有一个有效的方法插入吗?
mysql配置=>
prop.setProperty("user", "user")
prop.setProperty("password", "password")
prop.setProperty("rewriteBatchedStatements", "true")
prop.setProperty("batchsize", "1000000")
prop.setProperty("numPartitions", "3000")
1条答案
按热度按时间56lgkhnf1#
尝试添加
?rewriteBatchedStatements=true
到您的mysql uri。您的uri应该是这样的:jdbc:mysql://host:port/db?rewriteBatchedStatements=true
希望有帮助。更新
试试看,对我有用。设置
driver
财产起了作用。我还必须导入javamysql连接器。