我们正在hadoop3.2上运行spark2.4.x。
但我们注意到,databricks只有针对spark2.4.x的hadoop2.7/2.6的预构建版本。
以下是databricks官方网站的下载页面链接:https://spark.apache.org/downloads.html
所以我们想知道,如果我们强制spark2.4在hadoop3.2上运行,是否会有潜在的问题。
我们正在hadoop3.2上运行spark2.4.x。
但我们注意到,databricks只有针对spark2.4.x的hadoop2.7/2.6的预构建版本。
以下是databricks官方网站的下载页面链接:https://spark.apache.org/downloads.html
所以我们想知道,如果我们强制spark2.4在hadoop3.2上运行,是否会有潜在的问题。
暂无答案!
目前还没有任何答案,快来回答吧!