bigdata—选择hadoop的传统数据库的数据量有多大?

c9x0cxw0  于 2021-05-29  发布在  Hadoop
关注(0)|答案(1)|浏览(386)

传统数据库的数据量有多大选择hadoop?与传统数据库相比,选择hadoop系统的基准参数是什么?

dluptydi

dluptydi1#

从rdbms到hadoop没有具体的“大小”。要知道两件事:
他们很不一样
rdbms可以处理的数据大小取决于数据库服务器的能力。
传统的数据库是rdbms(relationaldatabasemanagementsystem),在rdbms中我们以行的形式插入数据,这些数据存储在数据库中。您可以更改/查询/更新数据库。
hadoop是一个用于存储和处理数据(大量数据)的框架。它由两部分组成:存储(hadoop分布式文件系统)和mapreduce(处理框架)。
hadoop将数据作为文件存储在其fs上。因此,如果您想像rdbms一样更新/更改/查询它,这是不可能的。我们确实有hadoop上的sql Package 器,比如hive或impala,但它们在数据(不是大数据)上的性能不如rdbms。
尽管如此,许多人仍在考虑从rdbms迁移到hadoop,因为rdbms在处理大数据(bigdata)时性能不佳。hadoop可以用作数据存储,通过它的查询可以使用hive/impala运行。hadoop不支持更新。
在rdbms上使用hadoop有很多优点和缺点。阅读更多。。这里还是这里

相关问题