在我们公司,我们有非常大的hbase(10 tb左右),可以收集多年的信息。由于配置不好或其他原因(没有人记得它是如何启动的),此时数据库停止了,当我试图通过spark发出任何请求时,它只是冻结,从不返回结果,并在超时时关闭进程。我的工作是将数据转换成其他格式-Parquet文件或cassandra。有人能帮我做这个吗?是否可以直接访问hfiles并逐个转换?hbase是否有任何用于此类作业的api?请帮帮我!我用spark,scala
在我们公司,我们有非常大的hbase(10 tb左右),可以收集多年的信息。由于配置不好或其他原因(没有人记得它是如何启动的),此时数据库停止了,当我试图通过spark发出任何请求时,它只是冻结,从不返回结果,并在超时时关闭进程。我的工作是将数据转换成其他格式-Parquet文件或cassandra。有人能帮我做这个吗?是否可以直接访问hfiles并逐个转换?hbase是否有任何用于此类作业的api?请帮帮我!我用spark,scala
暂无答案!
目前还没有任何答案,快来回答吧!