java二进制对象数据持久化到hadoop中

xj3cbfub  于 2021-05-29  发布在  Hadoop
关注(0)|答案(0)|浏览(220)

在java spark代码中有一个二进制对象。我们希望将其保存为hadoop目录。我们怎么能这样呢。在纯java中,我们执行以下操作

  1. File oldFile = new File("C:\\Documents\\obj.binary");
  2. oldFile.delete();
  3. File newFile = new File("C:\\Documents\\obj.binary");
  4. FileOutputStream fout = new FileOutputStream(newFile);
  5. ObjectOutputStream Objso = new ObjectOutputStream(fout);
  6. Objso.writeObject(model);
  7. Objso.flush();
  8. Objso.close();

我怎样才能在hadoop(sparkjava)中做到这一点。
我们有Hadoop2.6.2,spark 1.6.1
谢谢
巴拉

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题