数千个redis排序集vs数百万个简单集

anhgbhbe  于 2021-06-10  发布在  Redis
关注(0)|答案(1)|浏览(385)

关于如何解决我遇到的问题,我有两个选择( AWS ElastiCache (REDIS) ).
我能够找到这两种方法在时间复杂度(big o)和其他方面的所有差异。然而,有一个问题仍然困扰着我:
redis cluster(内存消耗、cpu或任何其他资源)在处理上是否有区别:
500k较大排序集(https://redis.io/commands#sorted_set)每种含10万元素
4800万个较小的简单集(https://redis.io/commands#set)每种含有约500种元素
?
提前感谢您的帮助:)

zf2sa74q

zf2sa74q1#

在比较两种不同的数据类型时,最好进行基准测试,以确定哪种数据类型的内存消耗更好 info memory . 但我假设这两种方法对内部条目的长度相同。
如果你使用配置 set-max-intset-entries 当添加到这个集合(比如512)时,保持它的限制,那么您的内存消耗将低于第一个选项(相同的值长度和相等的总条目数)。但这不是免费的。
文件上说
从用户和api的Angular 来看,这是完全透明的。由于这是cpu/内存的折衷,因此可以使用以下redis.conf指令调整特殊编码类型的最大元素数和最大元素大小。

相关问题