我正在尝试从许多不同的.csv文件(都具有相同的“结构”)读取数据,使用spark执行一些操作,最后将它们保存为hudi格式。
要在同一个hudi表中存储数据,我认为最好的方法是在执行写操作时使用append方法。
问题是这样做会创建成吨的小文件,它们的总维数远远超过输入数据集的大小(在某些情况下是10倍)。
这是我的hudi配置:
hudi_options = {
'hoodie.table.name': tableName,
'hoodie.datasource.write.recordkey.field': 'uuid',
'hoodie.datasource.write.partitionpath.field': 'main_partition',
'hoodie.datasource.write.table.name': tableName,
'hoodie.datasource.write.operation': 'upsert',
'hoodie.datasource.write.precombine.field': 'ts',
'hoodie.upsert.shuffle.parallelism': 10,
'hoodie.insert.shuffle.parallelism': 10,
'hoodie.delete.shuffle.parallelism': 10
}
当执行写操作时,如下所示: result_df.write.format("hudi").options(**hudi_options).mode("append").save(basePath)
其中,结果_df是一个sparkDataframe,它总是具有相同的模式,但具有不同的数据,并且basepath是常量。
我检查了输出文件的内容,它们具有正确的模式/数据。那么,有没有一种方法可以将数据附加到同一个hudi表文件中?
我对apachespark和hudi还比较陌生,所以如果您有任何帮助/建议,我将不胜感激;-)
1条答案
按热度按时间mcvgt66p1#
请提出github问题(httsp://github.com/apache/hudi/issues)及时得到社会的回应