我们有一个简单的.csv文件,有三列:
当我们尝试通过Sink活动运行管道将数据导入Cosmos DB时,它会失败,并出现以下错误:
“由于以下原因作业失败:在Flume'CosmosDB':{“innerErrorMessage”:“已耗尽”REPLACE“批量操作的所有重试- statusCode=[412:0] itemId=[12345678_TEST],partitionKeyValue=“SomeID.12345678_TEST”"}”
这是突然发生的,没有对数据流进行任何更改。我们还检查了数据,它看起来和以前一样,当它没有失败。数据库中也有记录。
我们正在执行更新操作,需要使用新的Condition和Description值更新现有节点:
问题:有什么想法可能导致这种错误?
1条答案
按热度按时间wz8daaqr1#
好的,这似乎是由于.csv文件中存在重复行而发生的。我猜,批量更新操作不能以这样的频率多次更新同一个节点。