如何使用pysparkjdbc读取blob数据类型

jxct1oxe  于 2021-07-13  发布在  Spark
关注(0)|答案(0)|浏览(267)

我在aws中有rds(oracle表),其中一列是blob数据类型

Table
Column Datatype
ID     varchar2
City   varchar2
File   BLOB

我打算用pysparkjdbc阅读上表,没有看到任何记录

df.printSchema()
root
|ID: String(nullable = true)
|City: String (nullable = true) 
|FILE: binary(nullable = true) 

df.show()
+---------+--------------+------------+
|ID       | CITY       | FILE       |
+---------+-------------+-----------+
+---------+--------------+-----------+

目前我使用的是spark2.4。我想提取二进制数据类型列的值,最好的方法是什么?我很感激你的回答。

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题