pyspark 如何将spark.sql.dataframe写入数据库中的S3 bucket?

mwg9r5ms  于 2023-03-11  发布在  Spark
关注(0)|答案(1)|浏览(162)

我正在使用数据库,我正在从一个桶中阅读.csv文件。

  1. MOUNT_NAME = "myBucket/"
  2. ALL_FILE_NAMES = [i.name for i in dbutils.fs.ls("/mnt/%s/" % MOUNT_NAME)] \
  3. dfAll = spark.read.format('csv').option("header", "true").schema(schema).load(["/mnt/%s/%s" % (MOUNT_NAME, FILENAME) for FILENAME in ALL_FILE_NAMES])

我想同时在那里写一个表格。

  1. myTable.write.format('com.databricks.spark.csv').save('myBucket/')
ibps3vxo

ibps3vxo1#

下面的代码片段显示了如何在DBFS和S3上将 Dataframe 保存为单个CSV文件。

  1. myTable.write.save(“s3n://my-bucket/my_path/”, format=”csv”)

  1. # DBFS (CSV)
  2. df.write.save('/FileStore/parquet/game_stats.csv', format='csv')
  3. # S3 (CSV)
  4. df.coalesce(1).write.format("com.databricks.spark.csv")
  5. .option("header", "true").save("s3a://my_bucket/game_sstats.csv")

相关问题