我正在使用Azure Synapse Analytics工作区,在工作区的“笔记本”选项卡中运行PYSpark笔记本。
该工作区还连接到Azure Data Lake Storage Gen 2,后者有一个名为filesystem的容器。
通常,为了保存文件,我在导出DataFrame后使用ABFSS路径将它们写入Spark。
UC_export=spark.createDataFrame(Error_Report.astype(str), verifySchema=False)
UC_export.coalesce(1).write.format('csv').mode('overwrite').save('abfss://[Container Name].dfs.core.windows.net/Assets_DQ/Error_Report.csv', header=True)
字符串
但是对于下面的代码,我不知道如何保存数字。我如何运行一个循环,可以将 *.png文件导出到ABFSS容器?
for error in Unique_Conso_df_check['Rule Broken'].unique():
for column in suitable_columns:
fig = plt.figure()
ax = plt.subplot(111)
pd.crosstab(Unique_Conso_df_Error[column],Unique_Conso_df_Error[error]).plot(kind='bar', rot = 90, ax=ax, figsize=[20,10])
ax.get_figure().savefig(savedirectory+'/densityplot_'+str(column)+'.png')
plt.show()
型
1条答案
按热度按时间kuhbmx9i1#
您需要挂载存储帐户,然后可以使用plt.savefig(),如this post中所述
只有当我保存图像之前没有使用plt.show()时,它才起作用。
字符串