我有一个问题,文本文件是保存到一个blob存储,然后通过使用逻辑应用程序迭代。这些文件来自一个非常旧的(但不幸的是非常重要的)系统。对它的访问受到高度限制,所以我对文件的创建方式没有任何控制。
它们被上传到我们的blob存储中,没有任何后缀,并使用ANSI编码。如果我通过Azure门户查看它们的文件内容,我可以看到非标准字符(在本例中为“”)已损坏:[损坏的字符][1]
我想这是因为Azure采用了UTF-8编码?当我使用逻辑应用程序遍历blob,然后获取文件内容并将其放置在字符串变量中时,就会出现问题。据我所知,Azure逻辑应用程序应该自动将编码转换为UTF-8,但这似乎不会发生,因为字符串变量中的字符仍然是乱码。
字符串变量中的数据用作Azure函数的输入数据,该函数需要能够正确地看到字符。在上传之前手动将文件转换为UTF-8可以解决这个问题,但这并不实用,因为这个数据流应该是自动的。
文件内容是这样提取的:[档案内容至变数][2]
推断内容没有区别,用正确的.txt后缀重命名文件也没有区别。[1]:https://i.stack.imgur.com/5B2ru.png [2]:https://i.stack.imgur.com/zb6yj.png
1条答案
按热度按时间gstyhher1#
我的windows.1252编码文件也有同样的问题。在“获取blob内容(v2)"中添加了参数“推断内容类型”。把它设置为“否”,它就为我解决了。把我的文件放在csv文件中,而不是一些可怕的UTF-8编码。