设置20tb存储:使用普通文件系统或hadoop

5cnsuln7  于 2021-06-02  发布在  Hadoop
关注(0)|答案(1)|浏览(306)

我是一个年轻的研究人员,计划购买一个计算服务器(可能是“大”)数据分析。服务器将有20tb的硬盘空间。我现在的问题是我应该使用普通的linux文件系统还是hadoop hdfs作为系统。有人能解释一下这两种选择的利弊吗?

kpbwa7wx

kpbwa7wx1#

在单个节点(一台服务器)上使用hdfs是没有意义的。hdfs的全部内容是分发数据,以便计算任务能够接近数据运行,并拥有数据的冗余副本,以便能够容忍硬件故障。单个节点不会提供任何hdfs好处。如果你有一组机器(如10台服务器),那么是的,你可以问这个问题。实际上,hdfs不是一个选项。

相关问题