Apache Spark 减少Dataproc无服务器CPU配额

9rygscc1  于 2022-12-13  发布在  Apache
关注(0)|答案(1)|浏览(107)

目标:我想在Dataproc Serverless for Spark上运行Spark作业。
问题:Spark应用程序的最低CPU内核要求是12个内核,这不符合我们默认的区域CPU配额,需要我们进行扩展。我们不想扩大配额。
详细信息:此链接提到Dataproc Serverless for Spark的最低要求:https://cloud.google.com/dataprocserverless/docs/concepts/properties
它们是:(a)1个驱动程序和2个执行器节点(B)每个节点4个内核
因此,总共需要12个CPU核心。
我们是否可以绕过这一点,使用更少的CPU内核运行Dataproc Serverless for Spark?

blmhpbnm

blmhpbnm1#

目前,Dataproc Serverless for Spark工作负载需要12个CPU核心才能运行-这是您无法绕过的硬性最低要求。
我们正在努力放宽这一要求,但至少要到2023年第三季度才能上市。

相关问题