hdfs的128m默认块大小如何使seektime/transfertime比率最小化

fruv7luv  于 2021-05-31  发布在  Hadoop
关注(0)|答案(0)|浏览(247)

在这个问题上我困惑了很长时间。有相当多的解释,为什么hdfs使用如此大的块大小相比,块大小的操作系统文件系统或磁盘块。我理解这样做会降低namenode对元数据管理的流量和存储需求。我一直困惑的是关于“最小化搜索时间/传输时间比率”的解释。正如下面的帖子所说。为什么hdfs中的块这么大?
我知道我的问题可能看起来很蠢,因为我不是cs学位的背景,所以我对现代计算机的组成等问题缺乏一定的知识,请原谅。
造成我困惑的主要原因是:
一个块将作为一个连续的信息块存储在磁盘上,这意味着完全读取它的总时间是定位它的时间(寻道时间)+读取它的内容而不进行更多寻道的时间
是不是整个hdfs块都会以连续的方式存储在磁盘上?
搜寻什么时候发生?磁盘上的每个块不会发生一次?
如果它是连续存储的,那么我们只需一次查找就可以读取整个块?
我认为我的怀疑是有根据的,因为大hdfs块可以减少寻道/传输时间的结论只有在这三个条件都满足的情况下才是有效的。否则,这个结论对我来说毫无意义。希望有人能告诉我哪里可以找到确凿的事实来证明我的猜测。提前谢谢。

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题